<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=336576148106696&amp;ev=PageView&amp;noscript=1">
festival del futuro

L'IA diventa «generativa» tra opportunità e rischi

Rivoluzioni Servono linee guida, che rientrano in ambiti quali precisione, sicurezza, onestà, sostenibilità
La Gen-IA Ha il potenziale di trasformare il modo in cui impariamo, lavoriamo e altro ancora
La Gen-IA Ha il potenziale di trasformare il modo in cui impariamo, lavoriamo e altro ancora
La Gen-IA Ha il potenziale di trasformare il modo in cui impariamo, lavoriamo e altro ancora
La Gen-IA Ha il potenziale di trasformare il modo in cui impariamo, lavoriamo e altro ancora

I leader aziendali, gli accademici, i politici e innumerevoli altre persone sono alla ricerca di modi per sfruttare la tecnologia dell'IA generativa (Gen-IA) che ha il potenziale di trasformare il modo in cui impariamo, lavoriamo e altro ancora. Il 67% dei responsabili IT, spiegano Kathy Baxter e Yoav Schlesinger, rispettivamente Principal Architect e Architect di Ethical AI Practice di Salesforce, sta dando priorità a Gen-IA nella propria azienda entro i prossimi 18 mesi, con un terzo (33%) che la indica come priorità assoluta. Le imprese stanno valutando il modo in cui l'IA potrebbe avere un impatto su ogni parte dell'azienda, comprese le vendite, il servizio clienti, il marketing, il commercio, l'IT, il settore legale, le risorse umane. Tuttavia il 79% ha espresso il timore che queste tecnologie possano comportare rischi per la sicurezza e un altro 73% è preoccupato per possibili esiti distorti. Più in generale, le organizzazioni devono riconoscere la necessità di garantire un uso etico, trasparente e responsabile di queste tecnologie.

Etica e tecnologia «Con la diffusione dell'IA generativa», spiegano Baxter e Schlesinger, «le aziende hanno la responsabilità di garantire un utilizzo etico di questa tecnologia e di ridurre i potenziali danni. Impegnandosi a rispettare le linee guida e ad avere dei paletti in anticipo, le aziende possono garantire che gli strumenti che impiegano siano accurati, sicuri e affidabili, e che aiutino gli esseri umani a prosperare. L'IA generativa si sta evolvendo rapidamente, quindi le misure concrete che le aziende devono adottare si evolveranno nel tempo». E aggiungono: «Ci siamo resi conto che le organizzazioni hanno bisogno di linee guida specifiche per i rischi che questa tecnologia presenta».

Le linee guida Elaborate da Baxter e Schlesinger, coprono cinque aree di interesse. La prima, la precisione, prevede che le organizzazioni debbano essere in grado di addestrare i modelli di IA sui propri dati per fornire risultati verificabili che bilancino accuratezza, precisione e richiamo. Per quanto riguarda la sicurezza, «è necessario fare ogni sforzo per mitigare i bias, la tossicità e i risultati dannosi conducendo valutazioni di pregiudizi, spiegabilità e robustezza». Non solo: le organizzazioni devono proteggere la privacy di qualsiasi informazione di identificazione personale presente nei dati utilizzati per l'addestramento per evitare potenziali danni. Serve poi onestà: «Quando raccogliamo dati per addestrare e valutare i nostri modelli», sottolineano, «rispettiamo la provenienza dei dati e ci assicuriamo che ci sia il consenso all'uso di tali dati». Un'altra area riguarda la responsabilizzazione: sebbene in alcuni casi sia meglio automatizzare completamente i processi, l'IA dovrebbe più spesso svolgere un ruolo di supporto. Infine la sostenibilità: «I modelli linguistici vengono definiti "grandi" in base al numero di valori o parametri utilizzati. Alcuni di questi modelli linguistici di grandi dimensioni (LLM) hanno centinaia di miliardi di parametri e utilizzano molta energia e acqua per l'addestramento. Quando si considerano i modelli di IA, più grandi non sempre significano migliori. Nello sviluppare i nostri modelli, cercheremo di ridurne al minimo le dimensioni e di massimizzarne l'accuratezza». *Sintesi dell'articolo «Gen-IA: molte opportunità, qualche rischio» di Kathy Baxter e Yoav Schlesinger pubblicato nell'inserto n.2 del «Festival del Futuro»