L’adozione dell’intelligenza artificiale (IA) nelle aziende sta crescendo rapidamente, offrendo strumenti che possono migliorare l’efficienza e la produttività.
Tuttavia, l’uso non autorizzato o incontrollato di queste tecnologie da parte dei dipendenti rappresenta una crescente preoccupazione per la sicurezza e la conformità aziendale.
L’uso non autorizzato dell’IA nelle aziende: dati preoccupanti
Uno studio recente ha rivelato che l’89% delle applicazioni e degli strumenti di IA generativa utilizzati dai dipendenti sfugge al controllo delle aziende.
Circa il 20% degli utenti aziendali ha installato autonomamente almeno un’estensione di IA nel proprio browser, e il 58% di queste estensioni richiede permessi classificati come ad alto o critico rischio, permettendo di monitorare le attività di navigazione, leggere contenuti delle pagine web e accedere a cookie e altri dati dell’utente.
Inoltre, il 5,6% delle estensioni di IA è potenzialmente dannoso, con la capacità di sottrarre informazioni sensibili.
Preoccupante è anche il fatto che il 18% degli utenti inserisce incautamente dati negli strumenti di IA generativa, e di questi, circa il 50% sono informazioni aziendali.
In Italia, un’indagine ha evidenziato che il 17% dei lavoratori utilizza strumenti di IA generativa, e il 49% di questi lo fa senza l’approvazione del datore di lavoro. Inoltre, il 54% ha presentato il lavoro svolto dall’IA come proprio.
L’uso non autorizzato dell’IA nelle aziende: dati preoccupanti
Uno studio recente ha rivelato che l’89% delle applicazioni e degli strumenti di IA generativa utilizzati dai dipendenti sfugge al controllo delle aziende.
Circa il 20% degli utenti aziendali ha installato autonomamente almeno un’estensione di IA nel proprio browser, e il 58% di queste estensioni richiede permessi classificati come ad alto o critico rischio, permettendo di monitorare le attività di navigazione, leggere contenuti delle pagine web e accedere a cookie e altri dati dell’utente.
Inoltre, il 5,6% delle estensioni di IA è potenzialmente dannoso, con la capacità di sottrarre informazioni sensibili.
Preoccupante è anche il fatto che il 18% degli utenti inserisce incautamente dati negli strumenti di IA generativa, e di questi, circa il 50% sono informazioni aziendali.
In Italia, un’indagine ha evidenziato che il 17% dei lavoratori utilizza strumenti di IA generativa, e il 49% di questi lo fa senza l’approvazione del datore di lavoro. Inoltre, il 54% ha presentato il lavoro svolto dall’IA come proprio.
Strategie per mitigare i rischi
Per affrontare questi rischi, le aziende dovrebbero adottare le seguenti misure:
1- Sviluppare policy chiare sull’uso dell’IA: Stabilire linee guida dettagliate che definiscano quali strumenti di IA possono essere utilizzati e in che modo.
2- Fornire formazione ai dipendenti: Educare il personale sui rischi associati all’uso non autorizzato dell’IA e sulle best practice per un utilizzo sicuro ed etico.
3- Implementare strumenti di monitoraggio: Utilizzare soluzioni che offrano visibilità sull’uso delle applicazioni di IA all’interno dell’organizzazione, permettendo di rilevare e gestire potenziali minacce.
4- Limitare l’uso di account personali: Assicurarsi che i dipendenti utilizzino account aziendali per accedere agli strumenti di IA, integrando misure di sicurezza appropriate.
Federprivacy
5- Promuovere una cultura della trasparenza: Incoraggiare i dipendenti a comunicare apertamente l’uso di nuovi strumenti tecnologici, riducendo il timore di punizioni e favorendo l’innovazione controllata.
Le cause del fenomeno
Le principali cause di questa situazione includono:
– Mancanza di consapevolezza e formazione: Molti dipendenti non sono adeguatamente informati sui rischi associati all’uso non autorizzato dell’IA e possono agire in buona fede ma imprudentemente.
– Assenza di policy aziendali: Molte aziende non hanno linee guida chiare sull’uso degli strumenti di IA, lasciando i dipendenti a gestire autonomamente l’adozione di queste tecnologie. In Italia, il 42% dei lavoratori dichiara che la propria azienda non adotta policy riguardanti l’uso dell’IA, e solo il 15% lavora in aziende con linee guida ben definite.
– Shadow IT: Il fenomeno dell’uso di soluzioni IT non autorizzate, noto come Shadow IT, è diffuso nelle organizzazioni. Questo include l’uso di applicazioni, servizi cloud e dispositivi non approvati, aumentando i rischi per la sicurezza dei dati.
I rischi per le aziende
L’uso non autorizzato dell’IA comporta diversi rischi per le aziende:
– Violazioni della sicurezza: Le estensioni e gli strumenti non controllati possono introdurre vulnerabilità, esponendo l’azienda a potenziali attacchi informatici.
– Perdita di dati sensibili: L’inserimento di informazioni aziendali in strumenti di IA non autorizzati può portare alla divulgazione non intenzionale di dati riservati.
– Non conformità normativa: L’uso di strumenti non approvati può violare le normative sulla protezione dei dati, esponendo l’azienda a sanzioni legali.
Conclusione
La digitalizzazione non deve essere un ostacolo, ma un’opportunità per migliorare la competitività aziendale.
Un’analisi attenta del software utilizzato e una selezione mirata degli strumenti portano a un’azienda più efficiente, produttiva e pronta ad affrontare le sfide del futuro. Meno software, usati meglio, significano più valore per il business.
HUBCONNECT offre un servizio di consulenza dedicato all’analisi del software aziendale, accompagnando le imprese in un percorso di ottimizzazione e formazione mirata. Grazie alla nostra esperienza, possiamo aiutarti a ridurre la complessità digitale e migliorare l’efficienza dei tuoi processi, garantendo una trasformazione digitale realmente efficace.