L’intelligenza artificiale (AI) è pericolosa?


Lunedì 22 maggio 2023, un account Twitter verificato chiamato "Bloomberg Feed" ha condiviso un tweet in cui si affermava che c'era stato uno esplosione al Pentagono, accompagnato da un'immagine. Se ti stai chiedendo cosa c’entra tutto questo con l’intelligenza artificiale (AI), l’immagine era generata dall’intelligenza artificiale, con il tweet che è diventato rapidamente virale e ha innescato un breve calo del mercato azionario. Le cose sarebbero potute andare molto peggio: un duro promemoria dei pericoli dell’intelligenza artificiale.

Pericoli legati all'intelligenza artificiale

Non dobbiamo preoccuparci solo delle fake news. Esistono molti rischi immediati o potenziali associati all’intelligenza artificiale, da quelli riguardanti la privacy e la sicurezza ai problemi di pregiudizio e copyright. Approfondiremo alcuni di questi pericoli dell’intelligenza artificiale, vedremo cosa viene fatto per mitigarli ora e in futuro e ci chiederemo se i rischi dell’intelligenza artificiale superano i benefici.

Notizie false

Quando apparvero per la prima volta i deepfake, si temeva che potessero essere utilizzati con intenzioni dannose. Lo stesso si potrebbe dire per la nuova ondata di Generatori di immagini AI, come DALL-E 2, Midjourney o DreamStudio. Il 28 marzo 2023, il finto Immagini generate dall'intelligenza artificiale di Papa Francesco con indosso un piumino bianco di Balenciaga e tante avventure, tra cui andare sullo skateboard e giocare a poker, è diventato virale. A meno che non si studiassero attentamente le immagini, era difficile distinguere queste immagini dalla realtà.

Mentre l'esempio del Papa è stato senza dubbio divertente, l'immagine (e il tweet di accompagnamento) sul Pentagono era tutt'altro. Le immagini false generate dall’intelligenza artificiale hanno il potere di danneggiare la reputazione, porre fine a matrimoni o carriere, creare disordini politici e persino iniziare guerre se utilizzate dalle persone sbagliate: in breve, queste immagini generate dall’intelligenza artificiale hanno il potenziale per essere estremamente pericolose se utilizzate in modo improprio.

Con i generatori di immagini IA ora disponibili gratuitamente per chiunque e Photoshop aggiunge un generatore di immagini AI con il suo popolare software, l'opportunità di manipolare immagini e creare notizie false è più grande che mai.

Privacy, sicurezza e pirateria informatica

Anche la privacy e la sicurezza rappresentano grandi preoccupazioni quando si tratta dei rischi dell'intelligenza artificiale, con un certo numero di paesi che già vietano il ChatGPT di OpenAI. L’Italia ha vietato il modello per motivi di privacy, ritenendo che non sia conforme al Regolamento generale europeo sulla protezione dei dati (GDPR), mentre i governi di Cina, Corea del Nord e Russia lo hanno vietato per paura che potesse diffondere disinformazione..

Allora perché siamo così preoccupati per la privacy quando si parla di intelligenza artificiale? App di intelligenza artificiale e i sistemi raccolgono grandi quantità di dati per apprendere e fare previsioni. Ma come vengono archiviati ed elaborati questi dati? Esiste il rischio reale che violazioni di dati, pirateria informatica e informazioni finiscano nelle mani sbagliate.

Non sono solo i nostri dati personali a essere a rischio. L’hacking dell’intelligenza artificiale è un rischio reale: non è ancora avvenuto, ma se qualcuno con intenti dannosi potesse hackerare i sistemi di intelligenza artificiale, ciò potrebbe avere gravi conseguenze. Ad esempio, gli hacker potrebbero controllare veicoli senza conducente, hackerare sistemi di sicurezza basati sull’intelligenza artificiale per ottenere l’accesso a luoghi altamente sicuri e persino hackerare sistemi d’arma dotati di sicurezza basata sull’intelligenza artificiale.

Gli esperti della Defense Advanced Research Projects Agency (DARPA) del Dipartimento della Difesa degli Stati Uniti riconoscono questi rischi e stanno già lavorando al progetto Guaranteeing AI Robustness Against Deception (GARD) della DARPA, affrontando il problema dalle basi. L'obiettivo del progetto è garantire che la resistenza all'hacking e alla manomissione sia integrata negli algoritmi e nell'intelligenza artificiale.

Violazione del copyright

Un altro dei pericoli dell'intelligenza artificiale è la violazione del copyright. Questo potrebbe non sembrare così grave come altri pericoli che abbiamo menzionato, ma lo sviluppo di modelli di intelligenza artificiale come GPT-4 espone tutti a un rischio maggiore di violazione.

Ogni volta che chiedi a ChatGPT di creare qualcosa per te, che si tratti di un post sul blog sui viaggi o di un nuovo nome per la tua attività, gli stai fornendo informazioni che poi utilizza per rispondere a domande future. Le informazioni che ti restituisce potrebbero violare il copyright di qualcun altro, motivo per cui è così importante utilizzare un rilevatore di plagio e modificare qualsiasi contenuto creato dall'intelligenza artificiale prima di pubblicarlo.

Pregiudizi sociali e relativi ai dati

L'intelligenza artificiale non è umana, quindi non può essere parziale, giusto? Sbagliato. Persone e dati vengono utilizzati per addestrare modelli di intelligenza artificiale e chatbot, il che significa che dati o personalità distorte si tradurranno in un'intelligenza artificiale parziale. Esistono due tipi di pregiudizi nell’intelligenza artificiale: pregiudizi sociali e pregiudizi relativi ai dati.

Con i numerosi pregiudizi presenti nella società di tutti i giorni, cosa succede quando questi pregiudizi diventano parte dell'intelligenza artificiale? I programmatori responsabili dell’addestramento del modello potrebbero avere aspettative distorte, che poi si insinuano nei sistemi di intelligenza artificiale..

Oppure i dati utilizzati per addestrare e sviluppare un'intelligenza artificiale potrebbero essere errati, distorti o raccolti in malafede. Ciò porta a pregiudizi nei dati, che possono essere pericolosi quanto i pregiudizi sociali. Ad esempio, se un sistema per il riconoscimento facciale viene addestrato utilizzando principalmente i volti dei bianchi, potrebbe avere difficoltà a riconoscere quelli appartenenti a gruppi minoritari, perpetuando l'oppressione.

I robot si prendono il nostro lavoro

Lo sviluppo di chatbot come ChatGPT e Google Bard ha fatto emergere una preoccupazione completamente nuova riguardo all'intelligenza artificiale: il rischio che robot si porti via il nostro lavoro. Stiamo già vedendo gli scrittori nel settore tecnologico sostituiti dall’intelligenza artificiale, gli sviluppatori di software temono di perdere il lavoro a causa dei bot e le aziende che utilizzano ChatGPT per creare contenuti di blog e contenuti sui social media invece di assumere scrittori umani.

Secondo Rapporto 2020 sul futuro dell’occupazione del World Economic Forum, si prevede che l'intelligenza artificiale sostituirà 85 milioni di posti di lavoro in tutto il mondo entro il 2025. Anche se l'intelligenza artificiale non sostituirà gli scrittori, è già utilizzata come strumento da molti. Coloro che svolgono lavori a rischio di essere sostituiti dall'intelligenza artificiale potrebbero dover adattarsi per sopravvivere: ad esempio, gli scrittori potrebbero diventare ingegneri tempestivi dell'intelligenza artificiale, consentendo loro di lavorare con strumenti come ChatGPT per la creazione di contenuti anziché essere sostituiti da questi modelli.

Potenziali rischi futuri legati all'IA

Questi sono tutti rischi immediati o incombenti, ma che dire di alcuni dei pericoli meno probabili ma comunque possibili legati all'intelligenza artificiale che potremmo vedere in futuro? Questi includono cose come l'intelligenza artificiale programmata per danneggiare gli esseri umani, ad esempio armi autonome addestrate per uccidere durante una guerra.

C'è poi il rischio che l'IA possa concentrarsi unicamente sul suo obiettivo programmato, sviluppando comportamenti distruttivi nel tentativo di raggiungerlo a tutti i costi, anche quando gli esseri umani cercano di impedire che ciò accada.

Skynet ci ha insegnato cosa succede quando un'intelligenza artificiale diventa senziente. Tuttavia, anche se l'ingegnere di Google Blake Lemoine potrebbe aver provato a convincere tutti che LaMDA, il generatore di chatbot artificialmente intelligente di Google, era senziente nel giugno 2022, per fortuna fino ad oggi non ci sono prove che suggeriscano che sia vero.

Le sfide della regolamentazione dell'IA

Lunedì 15 maggio 202, Il CEO di OpenAI Sam Altman ha partecipato alla prima udienza del Congresso sull'intelligenza artificiale, avviso: "Se questa tecnologia va storta, può andare molto storto". Il CO di OpenAI ha chiarito di essere favorevole alla regolamentazione e ha portato all'udienza molte delle sue idee. Il problema è che l’intelligenza artificiale si sta evolvendo a una tale velocità che è difficile sapere da dove cominciare con la regolamentazione..

Il Congresso vuole evitare di commettere gli stessi errori commessi all'inizio dell'era dei social media e un team di esperti insieme al leader della maggioranza al Senato Chuck Schumer sta già lavorando su norme che imporrebbero alle aziende di rivelare quali fonti di dati hanno utilizzato per la formazione modelli e chi li ha addestrati. Tuttavia, potrebbe passare del tempo prima che diventi chiaro esattamente come sarà regolamentata l’intelligenza artificiale, e senza dubbio ci saranno reazioni da parte delle società di intelligenza artificiale.

La minaccia di un'intelligenza generale artificiale

Esiste anche il rischio della creazione di un'intelligenza artificiale generale (AGI) in grado di svolgere qualsiasi compito che un essere umano (o un animale) potrebbe svolgere. Spesso menzionato nei film di fantascienza, probabilmente siamo ancora lontani decenni da una simile creazione, ma se e quando creeremo un’AGI, potrebbe rappresentare una minaccia per l’umanità.

Molti personaggi pubblici sostengono già la convinzione che l'intelligenza artificiale rappresenti una minaccia esistenziale per gli esseri umani, tra cui Stephen Hawking, Bill Gates e persino l'ex CEO di Google Eric Schmidt, che ha affermato: "L'intelligenza artificiale potrebbe comportare rischi esistenziali e i governi hanno bisogno di sapere come per assicurarsi che la tecnologia non venga utilizzata in modo improprio da persone malvagie”.

Quindi, l'intelligenza artificiale è pericolosa e i suoi rischi superano i suoi benefici? La giuria non ha ancora deciso su questo, ma stiamo già vedendo prove di alcuni dei rischi che ci circondano in questo momento. Altri pericoli hanno meno probabilità di realizzarsi in tempi brevi, se non addirittura del tutto. Una cosa, però, è chiara: i pericoli dell’intelligenza artificiale non dovrebbero essere sottovalutati. È della massima importanza garantire che l'intelligenza artificiale sia adeguatamente regolamentata fin dall'inizio, per ridurre al minimo e, auspicabilmente, mitigare eventuali rischi futuri.

.

Post correlati:


31.05.2023