L’IA amicale est un terme utilisé par les chercheurs en intelligence artificielle (IA) pour désigner les systèmes d’IA qui, en général, effectuent des actions qui sont utiles à l’humanité plutôt que neutres ou nuisibles. Cela ne signifie pas une obéissance aveugle – au contraire, le terme est utilisé pour décrire des systèmes d’IA qui sont amicaux parce qu’ils veulent l’être, et non à cause d’une force imposée de l’extérieur. En plus de faire référence aux systèmes terminés, Friendly AI est également le nom de la discipline théorique et technique qui serait utilisée pour créer de tels systèmes avec succès.
Le terme « Friendly AI » provient d’Eliezer Yudkowsky du Singularity Institute for Artificial Intelligence, dont l’objectif est de créer une Friendly AI suffisamment intelligente pour améliorer son propre code source sans intervention du programmeur. Son livre sur le sujet, Creating Friendly AI, publié en ligne en 2001, est probablement le premier traitement rigoureux du sujet. Yudkowsky invoque des arguments de la psychologie évolutionniste et d’autres sciences cognitives pour soutenir son approche du problème de l’IA amicale.
L’IA conviviale est considérée comme importante en tant que discipline universitaire, car les tentatives passées pour « répondre » au problème de l’IA malhonnête ont généralement invoqué des contraintes programmatiques strictes, qui sont vouées à s’effondrer sous des interprétations alternatives, lorsque l’IA devient plus intelligente que les humains, ou simplement lorsqu’elle gagne le capacité à se reprogrammer. L’anthropomorphisme est également un problème en IA. Parce que l’évolution construit des organismes qui ont tendance à être égoïstes, de nombreux penseurs supposent que toute IA que nous construisons aurait la même tendance, soit immédiatement, soit après être devenue suffisamment intelligente.
L’évolution construit des organismes avec des systèmes de buts égocentriques parce qu’il n’y a pas d’autre moyen. Les systèmes d’objectifs altruistes ont mis des millions d’années à évoluer, et cela uniquement dans des conditions dans lesquelles les membres d’une même tribu avaient beaucoup à gagner en s’entraidant et beaucoup à perdre en négligeant de le faire. Mais si nous devions concevoir un esprit à partir de zéro, nous pourrions le construire sans un système d’objectifs égocentrique. Ce ne serait pas « restreindre l’IA » – ce serait simplement créer une IA qui est altruiste par nature.
L’observation ci-dessus est l’une des nombreuses qui contribuent au domaine de l’IA amicale, qui est extrêmement nouveau et nécessite encore beaucoup de travail. Certains chercheurs en IA soutiennent que nous ne pouvons pas déterminer les caractéristiques de conception nécessaires pour mettre en œuvre une IA conviviale tant que nous n’avons pas de systèmes d’IA plus intelligents sur lesquels expérimenter. D’autres soutiennent qu’une approche purement théorique est non seulement possible, mais éthiquement nécessaire avant de commencer une tentative sérieuse d’IA générale.