ONU: un lavoratore su quattro è minacciato dalle AI. Ma anche i loro comunicati sono scritti dagli LLM

Le Nazioni Unite si affidano sempre più all’intelligenza artificiale nella produzione di testi ufficiali. Secondo un recente studio, il 13% dei comunicati stampa delle Nazioni Unite mostra già segni di generazione automatica.

Un’analisi delle pubblicazioni aziendali e governative ha rivelato un quadro ancora più ampio: circa il 17% di tali materiali, dagli annunci di lavoro alle dichiarazioni ufficiali, avrebbe potuto essere redatto con l’ausilio di modelli linguistici.

Ma sappiamo che l’intelligenza artificiale è utilizzata attivamente anche dai cittadini comuni.

Secondo gli autori, circa il 18% dei reclami presentati al Consumer Financial Protection Bureau degli Stati Uniti tra il 2022 e il 2024 è stato generato utilizzando reti neurali. Questo risultato sembra prevedibile: più della metà degli adulti americani (52%), che ha già ammesso di utilizzare modelli linguistici.

Vengono utilizzati più spesso per l’auto apprendimento o per le attività quotidiane, ma il loro utilizzo anche in ambito aziendale sta diventando sempre più evidente.

La percentuale di testo generato automaticamente è particolarmente elevata nei comunicati stampa aziendali. I ricercatori hanno scoperto che quasi un quarto delle pubblicazioni pubblicate sulle tre principali piattaforme di comunicati stampa è stato creato con l’ausilio dell’intelligenza artificiale. La più alta concentrazione di tali materiali è stata riscontrata nel settore scientifico e tecnologico.

Gli autori hanno studiato separatamente gli annunci di lavoro su LinkedIn. È emerso che le grandi aziende sono meno propense ad affidarsi a strumenti generativi nella scrittura degli annunci di lavoro, mentre circa il 10% degli annunci di lavoro delle piccole imprese, al contrario, mostra segni di apprendimento automatico.

Nel frattempo, gli stessi candidati esprimono sempre più insoddisfazione: il reclutamento automatizzato è percepito come una semplificazione ingiusta e i candidati vogliono che le aziende dichiarino apertamente il loro utilizzo dell’intelligenza artificiale.

È evidente anche il crescente utilizzo di algoritmi nel lavoro delle Nazioni Unite: mentre all’inizio del 2023, i segnali di generazione automatica erano registrati solo nel 3% dei comunicati stampa in lingua inglese dell’organizzazione, alla fine del 2024 questa cifra ha superato il 13%. Ciò è particolarmente significativo se si considera che le Nazioni Unite stesse hanno ripetutamente avvertito che l’automazione basata sulle reti neurali minaccia una professione su quattro, con le donne nei paesi sviluppati, dove molte mansioni lavorative possono essere esternalizzate agli algoritmi, che sono le più a rischio.

Negli Stati Uniti, la comunicazione e le pubbliche relazioni sono tra le professioni con una predominanza femminile. Secondo i dati del 2024, le donne rappresentano il 67,8% dei professionisti delle relazioni pubbliche e il 70,1% dei responsabili delle pubbliche relazioni e della raccolta fondi. Questi settori sono già attivamente saturi di testi basati sull’intelligenza artificiale.

Nel complesso, i ricercatori hanno registrato un rapido aumento. Prima del rilascio di ChatGPT nel novembre 2022, solo l’1,5% dei materiali analizzati poteva essere classificato come scritto automaticamente, ma ad agosto 2023 questa quota superava il 15%. La crescita successiva ha rallentato e ad agosto 2024 la cifra si è stabilizzata al 17%.

Gli autori hanno utilizzato il loro rilevatore di testo automatico per il loro lavoro. Tuttavia, riconoscono che il programma non è in grado di distinguere accuratamente i materiali che sono stati pesantemente modificati dagli esseri umani dopo la generazione. Questa lacuna è in linea con i risultati precedenti riguardanti i punti deboli di strumenti simili. Già nel 2023, uno studio separato ha dimostrato che nessuno dei sistemi disponibili ha dimostrato un’accuratezza superiore all’80% e, in alcuni casi, il testo generato è stato rilevato come testo umano. I risultati sono stati ancora peggiori con l’editing manuale, la parafrasi automatica o la traduzione.

Un altro studio ha rilevato un livello ancora più basso: l’accuratezza del riconoscimento in condizioni di sostituzione potrebbe scendere al 17,4%. L’autore principale dello studio attuale, il professore James Zou della Stanford University, spiega che tali strumenti funzionano in modo più efficace con articoli di grandi dimensioni, ma non sono in grado di determinare in modo affidabile se un particolare materiale sia stato scritto utilizzando l’intelligenza artificiale. Osserva che, come qualsiasi nuova tecnologia, i modelli generativi non possono essere ridotti a una valutazione netta, positiva o negativa. Commettono inevitabilmente errori e affidarsi esclusivamente a essi per la preparazione del testo senza verificare il risultato finale porterà inevitabilmente a inesattezze fattuali.

L'articolo ONU: un lavoratore su quattro è minacciato dalle AI. Ma anche i loro comunicati sono scritti dagli LLM proviene da il blog della sicurezza informatica.