La fiducia degli americani nell’AI sta diminuendo ed è una questione di sicurezza nazionale
La fiducia degli americani nell’intelligenza artificiale sta diminuendo, nonostante l’accelerazione dei progressi globali in questo campo. Ciò indica un potenziale problema di sicurezza nazionale: legislatori di ogni partito, leader del settore, think tank e altri hanno avvertito che rimanere indietro rispetto alla Cina in materia di intelligenza artificiale metterebbe gli Stati Uniti in una posizione di svantaggio. Un sentimento pubblico negativo potrebbe minare il sostegno del Congresso e finanziario alla ricerca e allo sviluppo in questo campo.
Ma alcune aziende di intelligenza artificiale stanno modificando i loro prodotti per dare ai clienti governativi un maggiore controllo sul comportamento dei modelli, sull’input dei dati e persino sulla fonte di energia che alimenta il sistema.
Questo potrebbe placare l’opinione pubblica?
Un recente accordo dimostra fino a che punto le aziende siano disposte a spingersi per soddisfare le esigenze del governo. Per miliardi di persone, ChatGPT è un’astrazione visualizzata tramite il browser web. Ma all’inizio di questo mese, il chatbot basato sull’intelligenza artificiale ha assunto una forma fisica quando OpenAI ha consegnato diversi hard disk contenenti i pesi del modello o3 al Los Alamos National Laboratory. Il laboratorio mira a utilizzarli per esaminare dati classificati alla ricerca di informazioni sulla fisica delle particelle che potrebbero rimodellare la ricerca di energia e lo sviluppo di armi nucleari.
Quei dischi rigidi erano i “più preziosi” sulla Terra, l’incarnazione fisica della valutazione di 300 miliardi di dollari di OpenAI, ha detto a Defense One Katrina Mulligan, responsabile governativa dell’azienda, in occasione di un recente evento sull’intelligenza artificiale a Washington, DC. “Stiamo perdendo soldi con il nostro accordo con i laboratori nazionali”, ha detto Mulligan.
Pochi giorni dopo, OpenAI ha annunciato un contratto da 200 milioni di dollari con il Pentagono per “prototipare come l’intelligenza artificiale di frontiera possa trasformare le sue operazioni amministrative, dal miglioramento del modo in cui i militari e le loro famiglie ricevono assistenza sanitaria, alla semplificazione del modo in cui analizzano i dati di programma e acquisizione, fino al supporto alla difesa informatica proattiva. Tutti i casi d’uso devono essere coerenti con le politiche e le linee guida di OpenAI”.
All’AI Expo dello Special Competitive Studies Project a Washington, DC, un rappresentante di OpenAI ha dimostrato come gli strumenti dell’azienda possano essere utili per compiti di sicurezza nazionale: geolocalizzazione di immagini senza indizi evidenti, scansione dei registri di Telegram alla ricerca di indicatori di attività informatica o identificazione dell’origine di parti di droni recuperate dal campo di battaglia.
Il responsabile della demo ha affermato che i più recenti modelli di ragionamento dell’azienda non solo superano le versioni precedenti, ma ora consentono anche l’inserimento sicuro di dati classificati in conformità con le linee guida del Dipartimento della Difesa. A differenza di ChatGPT, rivolto al pubblico, la versione governativa mostra anche agli utenti come il modello prioritizza le fonti di dati, offrendo una trasparenza che consente agli analisti di perfezionare la logica e comprendere come il programma sia giunto alle conclusioni a cui è giunto.
Questa visibilità è essenziale per l’uso ai fini della sicurezza nazionale, ha affermato Mulligan, molto più che per i consumatori che vogliono risposte e raramente chiedono come vengono realizzati.
“Produce una catena di pensiero piuttosto dettagliata che ti dice come è arrivato alla sua conclusione, quali informazioni ha preso in considerazione che non erano possibili nel paradigma precedente”, ha detto, aggiungendo che le persone hanno creduto a lungo che tali modelli semplicemente non potessero essere spiegati, pensando che “questi modelli sarebbero sempre stati una scatola nera”.
La spiegabilità, la portabilità dei dati e il controllo delle infrastrutture locali, che consentono ai laboratori di eseguire modelli sui propri supercomputer, stanno emergendo come requisiti di base per l’uso dell’intelligenza artificiale nella pubblica amministrazione. Dare agli utenti maggiore autonomia crea fiducia.
OpenAI non è l’unica. Amazon Web Services sta silenziosamente diventando un attore fondamentale nell’intelligenza artificiale per la difesa. Ha recentemente rilasciato una versione del suo servizio Bedrock, che consente agli utenti di creare applicazioni di intelligenza artificiale generativa con un menu di modelli fondamentali, con sicurezza di livello classificato per i clienti del Dipartimento della Difesa.
Ma mentre la fiducia tra governo e Silicon Valley si sta rafforzando attorno all’obiettivo comune di progredire nell’implementazione dell’intelligenza artificiale, l’opinione pubblica si sta muovendo nella direzione opposta.
Un sondaggio condotto da Edelman a marzo ha mostrato che la fiducia nell’IA è scesa dal 50% al 35% dal 2019. E la sfiducia attraversa tutti gli schieramenti politici: solo il 38% dei democratici si fida dell’IA, rispetto al 25% degli indipendenti e al 24% dei repubblicani. Questo segue altri sondaggi che hanno mostrato un sentimento pubblico sempre più negativo nei confronti dell’IA, nonostante i professionisti che hanno integrato l’IA nel loro lavoro segnalino livelli di prestazioni più elevati.
Ma la vera divergenza è geopolitica. “La fiducia nell’intelligenza artificiale negli Stati Uniti e in tutto il mondo occidentale è bassa, mentre in Cina e nel resto del mondo in via di sviluppo si attesta intorno al 75%.”, ha affermato Mulligan.
Teme che queste disparità si traducano in reali divari nell’adozione, con la Cina in vantaggio in termini di produttività, crescita economica e qualità della vita.
L'articolo La fiducia degli americani nell’AI sta diminuendo ed è una questione di sicurezza nazionale proviene da il blog della sicurezza informatica.