Quattro rischi legati all'IA generativa che ogni azienda dovrebbe conoscere

5 min.
La forma di un cervello disegnata come un circuito blu su sfondo nero.

Secondo un recente rapporto di McKinsey, "l'intelligenza artificiale generativa ha il potenziale di cambiare l'anatomia del lavoro" e "aumenterà in modo sostanziale la produttività del lavoro in tutti i settori". Al momento in cui scriviamo, sono stati identificati 63 casi d'uso dell'IA generativa che riguardano 16 funzioni aziendali, il che dà un'idea del livello di potenziale trasformazione. Naturalmente, produttività, efficienza ed efficacia è ciò a cui puntano le organizzazioni che desiderano raggiungere un successo a lungo termine in un mondo in continua evoluzione, per cui questa notizia è stata accolta con grande entusiasmo.

Tuttavia, nonostante l'entusiasmo, una parola si ripresenta sempre: rischio. L'IA generativa è ancora agli inizi, dopotutto. Per questo motivo, le aziende devono pensare attentamente al modo in cui viene implementata nelle proprie organizzazioni e a quali potrebbero essere i potenziali risultati. "Si tratta di una questione di tolleranza al rischio e di propensione al rischio", afferma Quentyn Taylor, Senior Director di Canon EMEA, Information Security and Global Response. "Ad esempio, siamo disposti ad accettare che un'intelligenza artificiale risponda alle domande dei clienti, quando a volte potrebbe sbagliare?" Questo è solo un modo in cui l'IA generativa potrebbe essere utilizzata per aumentare l'efficienza ma, come sottolinea Quentyn, qual è il rischio reputazionale quando un cliente riceve informazioni errate? Dipende molto dal prodotto e dal cliente, e questa è la più grande sfida per le aziende: avere una chiara comprensione degli ambiti in cui l'IA generativa può aggiungere valore reale e di quelli in cui non esiste un livello di rischio accettabile. Per poter anche solo iniziare a fare queste valutazioni, è quindi fondamentale capire esattamente quali potrebbero essere i rischi.

Protezione della proprietà intellettuale e delle informazioni sensibili dal punto di vista commerciale

Questa è l'area che è stata affrontata con maggiore urgenza dalla maggior parte delle organizzazioni, alcune delle quali hanno imposto un divieto assoluto all'uso di strumenti e servizi di IA generativa per proteggere e preservare la privacy aziendale. Essenzialmente, tutto ciò che viene inserito in un modello di IA generativa diventa un dato di addestramento. Quindi, se chiedi di scrivere un discorso per il lancio entusiasmante di un prodotto, fornendo tutti i dettagli di quel prodotto nella richiesta, in sostanza hai appena caricato informazioni business critical e segrete in uno strumento utilizzato a livello globale. Se la tua azienda vive o muore in base alla sua proprietà intellettuale, si tratta di un livello di rischio inaccettabile. "D'altro canto", prosegue Quentyn, "se hai utilizzato l'IA generativa per scrivere 300 descrizioni leggermente diverse per i prodotti esistenti, è un problema? Probabilmente no". Un'altra prospettiva da considerare è lo sforzo di tenere sotto controllo il problema rispetto al risultato: "Ostacolare l'uso dell'IA generativa è un uso efficace del nostro tempo? Possiamo bloccare completamente l'accesso quando ogni giorno vengono rilasciati migliaia di nuovi strumenti?", chiede.

Due persone sono sedute alla scrivania in un ufficio, una di fronte all'altra, ma entrambe guardano dei grossi schermi mentre lavorano al computer.

Quando i team utilizzano l'intelligenza artificiale generativa per aiutarsi con le loro attività quotidiane, è fondamentale che non carichino informazioni sensibili dal punto di vista commerciale.

Processo decisionale, pregiudizi e comunicazione

Chi è responsabile? Ovviamente, il processo decisionale parte dai vertici, ma quando il consiglio di amministrazione trae conclusioni con l'aiuto di strumenti di IA generativa, il processo deve essere chiaro. Allo stesso modo, è fondamentale tenere in considerazione i pregiudizi quando si utilizza l'IA generativa come strumento per analizzare le opzioni per aumentare la produttività e la redditività. È risaputo che i dati di addestramento devono essere vasti perché un modello di intelligenza artificiale sia anche solo lontanamente equo, ma anche così esistono dei pregiudizi. Ecco perché molte organizzazioni scelgono di non utilizzare questi strumenti in aree decisionali chiave, e le assunzioni vengono spesso citate come un'area problematica. Quentyn sottolinea questo aspetto. "È necessario comprendere sempre il contesto in cui vengono prese decisioni supportate dall'intelligenza artificiale", afferma. "E questo deve essere comunicato chiaramente al resto dell'organizzazione, altrimenti si rischia di creare confusione e sfiducia nella leadership". Ciò è particolarmente importante se si considera la frequenza con cui le decisioni organizzative richiedano di essere "sviscerate", per comprendere le basi, spesso molto sfaccettate, su cui vengono impostate le azioni.

Violazione del copyright

Al momento, sono in corso alcune cause legali di alto profilo in cui le parti ritengono che il loro lavoro creativo sia stato utilizzato per addestrare un'intelligenza artificiale senza il loro consenso. Ed esistono alcune preoccupazioni per l'IA generativa che sono più gravi di quelle relative alla legalità dei contenuti che crea. Sì, ci sono alcuni strumenti in arrivo (come Adobe Firefly) che vengono addestrati solo su dati di proprietà legale, ma per altri, al momento, c'è poca o nessuna chiarezza su quanto siano sicuri da usare, ad esempio, per creare una suite di immagini per una campagna sui social media o per progettare una nuova identità del marchio. Quando si lavora con terze parti in tali attività, Quentyn ritiene importante "adattare o aggiornare i contratti per mitigare il rischio e assicurarsi che internamente siano in vigore linee guida e politiche chiare".

Quando l'IA generativa mente

Potresti aver sentito il termine "allucinazioni" citato abbastanza spesso nel contesto dell'IA generativa. In parole povere, si tratta di quando un modello di intelligenza artificiale genera una risposta falsa o irrealistica. Potrebbe trattarsi di qualcosa di sciocco, come una parola completamente inventata o una frase senza senso. Oppure potrebbe fornire con sicurezza un'informazione falsa, come è accaduto a due avvocati che hanno presentato sei citazioni di casi in tribunale che si sono rivelati completamente fittizi. In seguito si è scoperto che erano state generate da ChatGPT e gli avvocati sono stati condannati a pagare una multa di 5000 $. Gli esperti di intelligenza artificiale riconoscono il problema e stanno "facendo progressi", ma nel frattempo questa è un'area di rischio eccezionale per le organizzazioni e i loro leader. "Verifica dei fatti, verifica dei fatti, verifica dei fatti", ripete Quentyn. "Questo è uno dei ruoli chiave per noi umani quando utilizziamo l'IA per generare contenuti sottostanti. Dobbiamo essere redattori scrupolosi ed efficaci". Mette inoltre in guardia dai rischi legati all'utilizzo dei bot di IA generativa per monitorare e rispondere sui social media. "Il bot potrebbe iniziare a fornire risposte che, in teoria, potrebbero essere corrette, ma non nel contesto della domanda che gli è stata posta".

Nel complesso, Quentyn ritiene che molte organizzazioni adotteranno l'IA come "vantaggio di base", integrato e offerto tramite i servizi e gli strumenti che già utilizzano. In questo senso, gran parte del rischio è già mitigato dai contratti con terze parti e dall'implementazione di soluzioni di partner noti, rispettati e comprovati. "Forse un'azienda potrebbe utilizzare l'intelligenza artificiale per effettuare ricerche nelle e-mail, alla ricerca di truffe di phishing", spiega. "È probabile che non si tratti di un'attività specificamente codificata o sviluppata da loro stessi, ma trarranno vantaggio dall'uso di strumenti che includono questo servizio". In ultima analisi, qualsiasi attività comporta una notevole gestione del rischio e le nuove opportunità presentate dall'IA generativa non sono diverse da questo punto di vista.

Materiale correlato