Cos’è l’IA amichevole?

Friendly AI è un termine usato dai ricercatori di Intelligenza Artificiale (AI) per riferirsi a sistemi di intelligenza artificiale che, in generale, eseguono azioni utili all’umanità piuttosto che neutre o dannose. Questo non significa obbedienza cieca – al contrario, il termine è usato per descrivere i sistemi di intelligenza artificiale che sono amichevoli perché vogliono esserlo, non a causa di una forza imposta dall’esterno. Oltre a riferirsi a sistemi completati, Friendly AI è anche il nome della disciplina teorica e ingegneristica che verrebbe utilizzata per creare tali sistemi con successo.

Il termine “Friendly AI” è nato da Eliezer Yudkowsky del Singularity Institute for Artificial Intelligence, il cui obiettivo è la creazione di Friendly AI abbastanza intelligente da migliorare il proprio codice sorgente senza l’intervento del programmatore. Il suo libro sull’argomento, Creating Friendly AI, pubblicato online nel 2001, è probabilmente il primo trattamento rigoroso dell’argomento in assoluto. Yudkowsky invoca argomenti della psicologia evoluzionistica e di altre scienze cognitive per supportare il suo approccio al problema dell’IA amichevole.

L’IA amichevole è considerata importante come disciplina accademica perché i tentativi passati di “rispondere” al problema dell’IA canaglia generalmente invocavano rigidi vincoli programmatici, che sono destinati a crollare sotto interpretazioni alternative, quando l’IA diventa più intelligente degli umani, o semplicemente quando guadagna il capacità di riprogrammarsi. Anche l’antropomorfismo è un problema nell’IA. Poiché l’evoluzione crea organismi che tendono ad essere egoisti, molti pensatori presumono che qualsiasi IA che costruiamo avrebbe la stessa tendenza, immediatamente o dopo essere diventati abbastanza intelligenti.

L’evoluzione costruisce organismi con sistemi di obiettivi egocentrici perché non c’è altro modo. I sistemi di obiettivi altruistici hanno impiegato molti milioni di anni per evolversi, e lo hanno fatto solo in condizioni in cui i membri della stessa tribù avevano molto da guadagnare aiutandosi a vicenda e molto da perdere trascurando di farlo. Ma se dovessimo progettare una mente da zero, potremmo costruirla senza un sistema di obiettivi egocentrico. Questo non significherebbe “limitare l’intelligenza artificiale” – sarebbe semplicemente creare un’intelligenza artificiale che è disinteressata per natura.

L’osservazione di cui sopra è una delle tante che contribuiscono al campo dell’AI amichevole, che è estremamente nuovo e necessita ancora di molto lavoro. Alcuni ricercatori di intelligenza artificiale sostengono che non possiamo determinare le caratteristiche di progettazione necessarie per implementare l’IA amichevole finché non avremo sistemi di intelligenza artificiale più intelligenti su cui sperimentare. Altri sostengono che un approccio puramente teorico è non solo possibile, ma eticamente necessario prima di iniziare un serio tentativo di IA generale.