Disinformazione e Intelligenza artificiale

 


Il 19 gennaio scorso a Davos, in Svizzera, si è riunito il World Economic Forum, per discutere sul tema “ricostruire la fiducia” a livello globale. In questo ambito sono stati esaminati, in particolare, i rischi del pianeta derivanti dallo sviluppo dell’intelligenza artificiale (AI). A conclusione del meeting è stato pubblicato un rapporto nel quale 1500 esperti di tutto il mondo hanno identificato la disinformazione, alimentata dall’impiego dell’AI, come il principale rischio globale nei prossimi due anni. È interessante richiamare gli elementi più significativi del dibattito scaturito nell’incontro, al fine di comprendere quanto la nostra società sia indifesa di fronte alla disinformazione, creata dalla tecnologia denominata “intelligenza artificiale generativa”.
Considerando che nei prossimi due anni circa quattro miliardi di cittadini nel mondo dovranno eleggere i propri rappresentanti, si prevede che un numero elevato di agenti, di differente estrazione, cercherà di utilizzare le sempre più efficaci possibilità dell’AI per rendere più evidenti le divergenze esistenti nella società, generando conseguenze che vanno ben oltre il contesto cibernetico. In particolare, la manipolazione dell’informazione potrebbe agire su quattro diversi settori: determinare i risultati delle elezioni politiche di alcune tra le maggiori economie del pianeta; aumentare la polarizzazione della società facendo insorgere disordini civili e conflitti su vaste aree; incrementare la repressione dei governi contro la proliferazione delle informazioni false; interferire sull’autonomia dei dispositivi delle forze armate che  funzionano mediante l’intelligenza artificiale.
In merito al primo punto, si osserva che la disinformazione negli agoni elettorali potrebbe influenzare le scelte di voto oppure rendere vana la legittimità dei governi eletti, scatenando così disordini politici che avrebbero l’effetto di indebolire nel tempo le istituzioni democratiche. Tali conseguenze derivano dal fatto che la diffusione delle fake news, mediante applicazioni informatiche di uso corrente, come What’s App, Facebook e altre, rende difficile la distinzione tra contenuti prodotti dalla AI e quelli di origine umana.
Sul secondo punto, si evidenzia che la polarizzazione delle idee determinerebbe non solo l’orientamento politico di ogni cittadino, ma il modo con cui egli interpreta la realtà, influenzando in modo determinante la coesione sociale e persino l’equilibrio mentale di ogni persona. Analogamente, le istituzioni di governo deciderebbero in modo del tutto irrazionale su questioni politiche concernenti materie importanti, come salute pubblica, giustizia, educazione e ambiente, ecc.. All’interno di tale scenario, la proliferazione di informazioni improprie potrebbe anche essere strumentalizzata per rafforzare l’autoritarismo digitale e facilitare l’impiego della tecnologia per il controllo dei cittadini.
Nell’ambito del contrasto delle notizie false, terzo punto, i governi potrebbero assumere la crescente autorità di definire la veridicità delle informazioni, consentendo ai partiti politici di monopolizzare il discorso pubblico e reprimere voci dissidenti, inclusi giornalisti e oppositori.
Infine, per quanto attiene le forze armate, è noto che le maggiori potenze militari hanno impiegato, negli ultimi anni, notevoli risorse allo sviluppo di sistemi d’arma guidati dall’intelligenza artificiale, determinando un incremento dell’autonomia d’impiego di tali dispositivi. Nelle tre dimensioni, le forze armate sono in grado di eseguire operazioni di sorveglianza senza richiedere l’intervento umano diretto. Oggi, con l’AI è possibile svolgere funzioni anche più impegnative, come l’individuazione e la selezione di obiettivi, da neutralizzare simultaneamente con ordigni, missili, droni, barchini, ecc.. a guida autonoma. Di fatto, l’incorporazione delle tecnologie di intelligenza artificiale in campo militare, consente di prendere facilmente decisioni di natura strategica, con la possibilità d’incrementare il rischio d’escalation, in teatri già afflitti da ostilità e favorire la deflagrazione di ulteriori conflitti latenti.
In conclusione, per quanto enunciato, appare necessaria l’istituzione di una governance internazionale che sia in grado di stabilire le regole per lo sviluppo equilibrato, sicuro e condiviso dell’intelligenza artificiale. Poiché attualmente non esistono accordi, specie nel campo della difesa, sui criteri da utilizzare nello sviluppo dell’AI, occorre prevedere strategie di difesa e autorità in materia, al fine di mitigare i rischi che possono rendere poco affidabili le istituzioni democratiche e falsificare l’informazione. Ciò allo scopo di ricostruire la fiducia reciproca tra cittadini ed istituzioni, la quale, in tempi di veloce ed incontrollabile evoluzione tecnologica, sta venendo sempre più a mancare.
 


Commenti

Post popolari in questo blog

Lettera a Gesù Bambino

Convivio di Natale

Deterrenza nucleare e mantenimento della pace