Domande e risposte: gli esperti affermano che fermare l’intelligenza artificiale non è possibile, né auspicabile

Notizia

CasaCasa / Notizia / Domande e risposte: gli esperti affermano che fermare l’intelligenza artificiale non è possibile, né auspicabile

May 17, 2023

Domande e risposte: gli esperti affermano che fermare l’intelligenza artificiale non è possibile, né auspicabile

By

Di Lucas Mearian

Reporter senior, Computerworld |

Poiché gli strumenti di intelligenza artificiale generativa come ChatGPT di OpenAI e Bard di Google continuano ad evolversi a un ritmo vertiginoso, sollevando dubbi sull’affidabilità e persino sui diritti umani, gli esperti stanno valutando se e come la tecnologia possa essere rallentata e resa più sicura.

A marzo, l’organizzazione no-profit Future of Life Institute ha pubblicato una lettera aperta chiedendo una pausa di sei mesi nello sviluppo di ChatGPT, il chatbot basato sull’intelligenza artificiale creato da OpenAI, sostenuta da Microsoft. La lettera, ora firmata da più di 31.000 persone, sottolinea che potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo una volta che i loro rischi possano essere gestiti.

"Dovremmo sviluppare menti non umane che alla fine potrebbero superarci in numero, essere più intelligenti, obsolete e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà?" chiedeva la lettera.

Il co-fondatore di Apple Steve Wozniak e il CEO di SpaceX e Tesla Elon Musk si sono uniti a migliaia di altri firmatari nel concordare che l’intelligenza artificiale pone “profondi rischi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di intelligenza artificiale”.

A maggio, il Centro no-profit per la sicurezza dell’intelligenza artificiale ha pubblicato una lettera aperta simile in cui dichiarava che l’intelligenza artificiale rappresenta un rischio di estinzione globale alla pari delle pandemie e della guerra nucleare. Tra i firmatari di questa dichiarazione figurano molti degli stessi scienziati e dirigenti dell’IA che hanno portato l’IA generativa alle masse.

Si prevede inoltre che i posti di lavoro verranno sostituiti dall’intelligenza artificiale generativa: molti posti di lavoro. A marzo, Goldman Sachs ha pubblicato un rapporto in cui stimava che l’intelligenza artificiale generativa e la sua capacità di automatizzare le attività potrebbero influenzare fino a 300 milioni di posti di lavoro a livello globale. E all’inizio di maggio, IBM ha dichiarato che avrebbe sospeso i piani per coprire circa 7.800 posizioni e ha stimato che quasi tre lavori di back-office su 10 potrebbero essere sostituiti dall’intelligenza artificiale in un periodo di cinque anni, secondo un rapporto di Bloomberg.

Mentre le rivoluzioni industriali del passato hanno automatizzato le attività e sostituito i lavoratori, tali cambiamenti hanno anche creato più posti di lavoro di quanti ne abbiano eliminati. Ad esempio, il motore a vapore aveva bisogno del carbone per funzionare e delle persone per costruirlo e mantenerlo.

L’intelligenza artificiale generativa, tuttavia, non è l’equivalente della rivoluzione industriale. L’intelligenza artificiale può insegnare da sola e ha già assorbito la maggior parte delle informazioni create dagli esseri umani. Presto l’intelligenza artificiale inizierà a integrare la conoscenza umana con la propria.

Geoff Schaefer, capo dell'IA responsabile, Booz Allen Hamilton

Geoff Schaefer è a capo dell'IA responsabile presso Booz Allen Hamilton, un appaltatore militare e governativo statunitense, specializzato in intelligence. Susannah Shattuck è responsabile del prodotto presso Credo AI, un fornitore SaaS di governance dell'intelligenza artificiale.

Computerworld ha parlato recentemente con Schaefer e Shattuck del futuro dell'intelligenza artificiale e del suo impatto sull'occupazione e sulla società nel suo insieme. Quelli che seguono sono estratti da quell'intervista.

Quali rischi comporta l’intelligenza artificiale generativa?Shattuck: "Pregiudizi algoritmici. Questi sono sistemi che fanno previsioni basate su modelli di dati su cui sono stati addestrati. E come tutti sappiamo, viviamo in un mondo parziale. I dati su cui stiamo addestrando questi sistemi sono spesso sono distorti e, se non siamo attenti e ponderati sui modi in cui insegniamo o addestriamo questi sistemi a riconoscere modelli nei dati, possiamo involontariamente insegnare loro o addestrarli a fare previsioni distorte.

"Spiegabilità. Molti dei modelli [di grandi linguaggi] più complessi che possiamo costruire al giorno d'oggi sono piuttosto opachi per noi. Non comprendiamo appieno esattamente come fanno una previsione. E così, quando operi in un livello elevato -fiducia o in un ambiente decisionale molto sensibile, può essere difficile fidarsi di un sistema di intelligenza artificiale di cui non si comprende appieno il processo decisionale. Ed è per questo che stiamo assistendo a una crescente regolamentazione incentrata sulla trasparenza dei sistemi di intelligenza artificiale.

"Vi farò un esempio molto concreto: se implementerò un sistema di intelligenza artificiale in uno scenario di assistenza sanitaria in cui avrò quel sistema che fornisce determinate raccomandazioni a un medico sulla base dei dati del paziente, allora la spiegabilità è fondamentale. sarà davvero fondamentale per quel medico essere disposto a fidarsi del sistema.