L’affermazione dell’intelligenza artificiale è ormai il presente, dagli algoritmi che determinano quali pubblicità vedi online, ai filtri antispam, agli assistenti virtuali come Alexa e Siri.
Abbiamo raggiunto l’era dell’IA? Come suggerisce il nome, l’intelligenza artificiale è un sistema che impara da solo, migliorando in base agli errori passati.
Sebbene l’apprendimento automatico e l’IA sembrano essere due termini usati in modo intercambiabile, ci sono alcune differenze definite. La maggior parte dei programmi di IA oggi propagandati utilizza effettivamente l’apprendimento automatico e il filtraggio attraverso dati facilmente disponibili.
Inoltre, sullo sfondo, pesano anche le possibili ripercussioni sulla salute di nuove tecnologie non ancora completamente testate e sicure per la salute umana come il 5G, che sta suscitando perplessità in molte parti del mondo.
Indice dei contenuti
L’esempio del DeepMind di Google
DeepMind di Google è probabilmente uno degli esempi più autentici di intelligenza artificiale e, nel 2016, la macchina DeepMind ha battuto un giocatore umano esperto in “Go”, un gioco estremamente complicato.
Ma nonostante i molti successi di DeepMind, la corsa per l’IA è ancora in corso.
Molti paesi si stanno impegnando per essere i primi a sviluppare un vero sistema di intelligenza computerizzata in grado di apprendere da solo e di assumere qualsiasi compito gli venga assegnato.
Queste innovazioni sono dietro l’angolo e quando la vera intelligenza artificiale diventa sempre più una realtà, la domanda rimane: come possiamo garantire che queste macchine non diventino nemici o conquistino il mondo come tanti film di fantascienza popolari piace immaginare?
La questione etica va affrontata ora
Steve Omohundro, un ricercatore di intelligenza artificiale, insieme al Dr. Kailtyn Regehr, affronterà le considerazioni etiche dell’IA in un nuovo episodio del podcast How Researchers Changed the World .
Regehr e Omohundro discuteranno del perché le questioni etiche debbano essere affrontate ora piuttosto che dopo che i progressi nella tecnologia dell’IA continuano.
Ad esempio, se un’azienda progetta un sistema di intelligenza artificiale per vincere a scacchi, qualunque cosa accada, sarà in grado di insegnare a se stessa come non spegnersi? Quali misure di sicurezza etiche dovrebbero essere integrate in un sistema di intelligenza artificiale?
“Questi sistemi dovrebbero poter votare? Dovrebbero essere cittadini a pieno titolo? Dovrebbero essere visti come servi? Dovrebbero essere visti come schiavi? Sono solo macchine? ”Si continua a chiedere Steve Omohundro.
LEGGI ANCHE: BILL GATES E LA STARTUP AD ENERGIA PULITA
L’opinione di Elon Musk
L’autoapprendimento rapido dell’intelligenza artificiale mediante algoritmi complessi potrebbe un giorno aiutare i medici a fare diagnosi accurate o ridurre il numero di incidenti sulla strada con auto a guida autonoma più sicure.
Tuttavia, ci sono anche grandi preoccupazioni sul fatto che quando l’IA diventerà sempre più parte della nostra vita, potrebbe avere conseguenze irreversibili.
Secondo Elon Musk, l’inventore, l’ingegnere e il miliardario che vuole colonizzare Marte, l’IA è la “più grande minaccia esistenziale dell’umanità”.
“Sono sempre più propenso a pensare che ci dovrebbe essere un certo controllo regolamentare, forse a livello nazionale e internazionale, solo per assicurarsi che non facciamo qualcosa di molto sciocco”, ha detto Musk al Guardian .
Musk non è il solo a pensare che debbano essere messe in atto politiche serie per regolare l’IA.
LEGGI ANCHE: MACHINE LEARNING – LE MACCHINE GOVERNERANNO IL NOSTRO FUTURO?
Il rapporto dell’Università di Manchester
Un rapporto politico recentemente pubblicato dell’Università di Manchester , intitolato “Sull’IA e la robotica: sviluppo della politica per la quarta rivoluzione industriale”, discute il potenziale pregiudizio e l’emarginazione che l’IA potrebbe portare.
I ricercatori del Manchester Institute of Innovation Research hanno condotto il rapporto.
Uno dei principali argomenti del rapporto è che gli investimenti nell’intelligenza artificiale saranno principalmente pagati dai contribuenti e, come tale, è necessario uno sforzo significativo per garantire che i benefici dell’intelligenza artificiale siano condivisi equamente.
In altre parole, man mano che l’intelligenza artificiale avanza, deve farlo in modo democratico e socialmente responsabile.
“In questi processi decisionali alcuni gruppi sociali possono essere esclusi, sia perché non hanno accesso ai dispositivi necessari per partecipare o perché i set di dati selezionati non tengono conto delle esigenze, delle preferenze e degli interessi delle persone emarginate e svantaggiate”
Il rapporto sottolinea inoltre che le persone devono essere meglio istruite sulle differenze tra tecnologia robotica e intelligenza artificiale.
Differenze tra Tecnologia Robotica e Intelligenza Artificiale
“Sebbene le sfide che le aziende e i responsabili delle politiche stanno affrontando rispetto all’IA e ai sistemi robotici siano simili in molti modi, si tratta di due tecnologie completamente separate – qualcosa che è spesso frainteso, non solo dal grande pubblico, ma anche dai responsabili delle politiche e dai datori di lavoro. Questo è qualcosa che deve essere affrontato “, ha dichiarato Anna Scaife, condirettrice del team Policy @ Manchester dell’Università , che ha pubblicato il rapporto.
Ci sono numerosi progressi potenziali e positivi che potrebbero verificarsi con l’IA e la robotica e gli esperti concordano sul fatto che entrambe le tecnologie avranno un impatto serio su molti campi diversi nel prossimo futuro.
Gli autori del report sperano che questa ricerca trasmetta l’ampio spettro di possibilità in merito l’intelligenza artificiale e la robotica e dimostri quanto sia vitale per i responsabili politici, i regolatori e i ricercatori garantire che i progressi non vadano a scapito di nessun gruppo di persone.