Apocalisse di intelligenza artificiale

Dovremmo avere paura dell'IA?

Pubblicato il:

aggiornato:

Per decenni, gli umani hanno fantasticato sull'idea di un'acquisizione dell'intelligenza artificiale (AI). Film di fantascienza come "2001: A Space Odyssey", "The Terminator" e "I, Robot" hanno affascinato gli spettatori per anni, soprattutto perché hanno preso in giro la possibilità di un futuro distopico guidato dall'intelligenza artificiale.

Ma oggi, quel futuro distopico potrebbe essere troppo vicino per essere confortato. 

Prima della sua scomparsa, Stephen Hawking avvertì notoriamente l'umanità dicendo, "Una volta che gli esseri umani sviluppano l'intelligenza artificiale, questa decollerà da sola e si ridisegnerà a una velocità sempre maggiore." Ha anche suggerito che potrebbe significare la fine della razza umana.  

Da allora, molti esperti di intelligenza artificiale hanno continuato a predicare tali avvertimenti. Elon Musk, CEO di Tesla, SpaceX e Neuralink, è persino arrivato a dire che l'IA è più pericoloso delle armi nucleari.

Ma molti altri contestano tali opinioni. John Giannandrea, vicepresidente senior di Machine Learning e AI Strategy di Apple, ha descritto questa retorica del giorno del giudizio come allarmismo. E Mark Zuckerberg, CEO di Facebook, lo ha definito "piuttosto irresponsabile. "

Dove si trova attualmente l'IA

Prima di immergersi nella probabilità di un'apocalisse dell'IA e nei metodi per prevenirla, è importante differenziare i tipi di IA. 

Ciò che il pubblico ha più familiarità si chiama "intelligenza artificiale stretta" (ANI). Questo è ciò che viene utilizzato per guidare auto a guida autonoma e alimentare sistemi di riconoscimento vocale come Siri di Apple e Alexa di Amazon. ANI è potente, ma funziona in un contesto molto limitato.

"Non sono davvero così preoccupato per le cose a breve termine", Musk disse durante una conferenza tecnologica 2018 South by Southwest (SXSW). “L'intelligenza artificiale stretta non è un rischio a livello di specie. Si tradurrà in dislocazione, in lavori persi, armi migliori e cose del genere, ma non costituisce un rischio fondamentale a livello di specie. "

Invece, Musk e altri sono più preoccupati per lo sviluppo dell '"intelligenza generale artificiale" (AGI). Presumibilmente, se l'AGI sarà pienamente raggiunto, le macchine saranno in grado di comprendere o apprendere qualsiasi compito che un essere umano possa fare. 

L'IA può già individuare il cancro better di quanto gli umani possano, battere i migliori giocatori di scacchi e Go del mondo, costruire i propri algoritmi ed esaminare le immagini sui siti dei social media per rilevare le espressioni e l'abbigliamento degli umani, tra le altre cose. 

Tuttavia, questi sono tutti esempi di intelligenza artificiale che completa talenti umani. Se e quando la piena AGI diventa una realtà, ciò rimane incerto

In un'intervista telefonica, Nisheeth K. Vishnoi, professore di informatica alla Yale University, ha dichiarato di non credere che raggiungeremo l'AGI. Per Vishnoi, l'AGI sembra una speculazione senza prove esistenti. 

Tuttavia, le nazioni probabilmente proveranno. A poco più di 60 anni, l'IA è ancora un campo molto giovane. Il suo avanzamento accelerato è imprevedibile e apparentemente inevitabile. 

La corsa al dominio dell'IA 

Attualmente, le nazioni stanno correndo verso il dominio dell'IA, alimentate dal desiderio di diventare il leader economico e militare globale. 

In 2017, il presidente russo Vladimir Putin disse in una conversazione con gli studenti: “L'intelligenza artificiale è il futuro, non solo per la Russia, ma per tutta l'umanità. Viene fornito con opportunità colossali, ma anche minacce difficili da prevedere. Chiunque diventi il ​​leader in questa sfera diventerà il sovrano del mondo. "

Attualmente, gli Stati Uniti e la Cina - non la Russia - stanno guidando quella corsa, e nessuno dei due paesi mostra alcun segno di rallentamento. Nell'estate del 2017, la Cina impegnato diventare il principale centro di innovazione AI al mondo di 2030. E all'inizio di quest'anno, il presidente Donald Trump ha emesso un ordine esecutivo mantenere la leadership americana nell'intelligenza artificiale.

Già, a luglio, i ricercatori dell'Università cinese Tsinghua hanno creato un nuovo tipo di chip per computer che credono "stimoleranno lo sviluppo dell'AGI". Tuttavia, è solo il primo di molti passaggi. 

Il futuro dell'IA

Fino a questo punto, l'IA ha beneficiato principalmente della società. Ha reso la diagnosi medica più rapida e accurata, ha ridotto la quantità di compiti noiosi che i lavoratori devono svolgere quotidianamente e ha aiutato nella prevenzione e nella preparazione alle catastrofi. 

La maggior parte degli impatti negativi dell'IA così com'è attualmente, come ha detto Musk, non sono rischi a livello di specie. Ce ne saranno alcuni potenziale perdita di lavoro, le preoccupazioni sulla privacy dei dati e l'influenza della campagna politica, tra le altre cose, che sono degne di seria preoccupazione, ma non segnano necessariamente la fine dell'umanità. 

La cosa più preoccupante, tuttavia, è che il progresso dell'IA non farà che accelerare e la società ha un'idea sottile di dove sta andando. 

"Il tasso di cambiamento della tecnologia è incredibilmente veloce", Musk disse alla Conferenza mondiale sull'intelligenza artificiale (WAIC). "Sta superando la nostra capacità di capirlo."

Già, gli esperti di AI suggeriscono che le "armi autonome letali" lo sono dietro l'angolo. Tali armi potrebbero decidere indipendentemente quando e dove sparare con le loro pistole e missili. Sono - letteralmente - qualcosa uscito da un film di fantascienza.

Musk e altri preoccuparsi che gli umani stanno rapidamente perdendo la presa sulla tecnologia dell'IA e dandogli potere, intelligenza e abilità che gli umani potrebbero non essere in grado di controllare o rivendicare. 

"Penso che, in generale, le persone sottovalutino le capacità dell'intelligenza artificiale", ha detto Musk a WAIC. “In un certo senso pensano come se fosse un essere umano intelligente. Ma sarà molto di più. Sarà molto più intelligente dell'essere umano più intelligente ".

"L'errore più grande che vedo i ricercatori dell'intelligenza artificiale fare è assumere che siano intelligenti", ha continuato Musk. "Non lo sono, rispetto all'intelligenza artificiale. Molti di loro non riescono a immaginare qualcosa di più intelligente di loro stessi, ma l'intelligenza artificiale sarà molto più intelligente. "

Sebbene alcuni suggeriscano ancora che l'IA non raggiungerà o supererà mai l'intelligenza umana, la maggior parte sarebbe d'accordo sul fatto che è meglio prevenire che curare. Pertanto, esperti di intelligenza artificiale, università, gruppi di esperti e altri hanno sviluppato suggerimenti su come gestire lo sviluppo dell'IA. 

Evitare un'apocalisse AI 

Una delle idee più intriganti non proviene da Musk. Attraverso il suo Neuralink dispositivo, Musk prende un "se non puoi batterli, unisciti a loro"Approccio alla gestione dell'IA.

Neuralink è un dispositivo di interfaccia cervello-macchina che consentirebbe agli esseri umani di connettersi e controllare i loro smartphone, laptop o altri dispositivi informatici con il cervello, eliminando la necessità di utilizzare la punta delle dita, che rallenta gli esseri umani. 

"È come una piccola goccia di flusso di informazioni tra il tuo sé biologico e il tuo sé digitale", ha detto Musk Podcast di Joe Rogan. "Dobbiamo fare quella piccola cannuccia come un fiume gigante, un'enorme interfaccia ad alta larghezza di banda."

"Consentirà a chiunque desideri avere una cognizione sovrumana", ha aggiunto Musk. "Quanto sei più intelligente con un telefono o un computer o senza? Il tuo telefono è già un tuo interno. Sei già un cyborg. "

Un'idea più digeribile condivisa da Musk e altri richiede la supervisione da parte del governo regolatorio dello sviluppo dell'IA. 

"Deve essere un ente pubblico che ha approfondimenti e quindi supervisione per confermare che tutti stanno sviluppando un'intelligenza artificiale in modo sicuro", ha detto Musk alla conferenza tecnologica di 2018 SXSW. “Questo è estremamente importante. Penso che il pericolo dell'IA sia molto più grande del pericolo delle testate nucleari e nessuno suggerirebbe che permettiamo a chiunque di costruire testate nucleari se lo desiderano. Sarebbe folle. " 

Nel frattempo, college e università si sono concentrati principalmente sull'insegnamento e lo sviluppo di una nuova generazione di tecnologi e sviluppatori che considerano l'etica e il bene pubblico tanto quanto l'innovazione. Il loro obiettivo non è necessariamente limitare l'avanzamento dell'IA e di altre tecnologie, ma assicurarsi che vengano creati in modo etico e responsabile. 

Virginia Tech University è una delle scuole che guida questa carica. Attraverso il suo nuovo Tech for Humanity Iniziativa, ai tecnologi del College of Engineering verrà insegnato ad adottare un "approccio centrato sull'uomo" per lo sviluppo e il progresso della tecnologia. E gli studenti delle discipline umanistiche impareranno di più sulla politica tecnologica e sull'etica dell'IA, tra le altre cose. 

“L'innovazione sta aumentando il divario tra ciò che è tecnologicamente possibile e ciò che potrebbe essere o non essere nel migliore interesse della società umana e un futuro praticabile. Abbiamo bisogno di approcci incentrati sull'uomo per guidare lo studio, lo sviluppo e l'uso delle tecnologie " Sylvester Johnson, il direttore fondatore del VT Center for Humanities, ha dichiarato in una nota.

Oggi, tecnologia come l'IA è inevitabile. Si è infiltrato nella politica, nella legge e in tutte le discipline umanistiche. L'iniziativa di VT mira a sviluppare professionisti a tutto tondo nel campo delle discipline umanistiche e tecnologiche che possiedono le capacità di pensiero intersezionale necessarie per prendere decisioni difficili in merito al futuro della tecnologia. 

"Dovremmo armare l'IA e continuare a sviluppare armi nel tentativo di avere qualcosa di simile all'intelligenza a livello umano in un sistema d'arma o in un sistema di macchine?", Ha detto Johnson. “Questa è una domanda molto complicata che deve essere studiata, esaminata, discussa e impegnata da una serie di persone. E penso che le nostre università abbiano un ruolo molto importante da svolgere. "

VT non è l'unica scuola ad agire. 

Più indietro, a marzo, un'organizzazione composta da università 21 ha chiamato il Rete di università di tecnologia di interesse pubblico è stato lanciato con il supporto di Ford Foundation, New America e Hewlett Foundation per raggiungere un obiettivo simile. Insieme, stanno lavorando per assicurarsi che l'interesse pubblico e il bene sociale siano prioritari nella tecnologia e nell'informatica nella stessa misura in cui sono nella legge e nelle discipline umanistiche.

Conclusione

Attualmente, AGI, di cui Musk e altri sono così preoccupati, è ancora circondato da incertezza. Anche se è stato creato, molti esperti si aspettano che lo sia almeno 50-100 anni lungo la strada. 

Indipendentemente da ciò, l'IA esistente e altre tecnologie hanno già creato un surplus di domande etiche, e si può solo immaginare ciò che il futuro ha in serbo. Quindi, in preparazione, università, politici, attivisti e altri hanno la responsabilità di intervenire. 

Prova GRATUITA di 6 mesi

Quindi, goditi Amazon Prime a metà prezzo - 50% di sconto!

TUN AI – Il tuo assistente educativo

TUNAI

Sono qui per aiutarti con borse di studio, ricerca universitaria, lezioni online, aiuti finanziari, scelta delle specializzazioni, ammissione all'università e consigli di studio!

La Rete Università