L’intelligence artificielle ou le péril Terminator

Elon Musk, brillant entrepreneur, cofondateur, entre autres, de Paypal, SpaceX, Tesla Motors et SolarCity et responsable d’avancées technologiques parmi les plus spectaculaires de la planète, a peur… de quoi ? Des progrès de l’Intelligence Artificielle.

Dans un entretien diffusé sur CNBC cet été, Musk confie avoir investi dans une entreprise spécialisée dans le développement d’algorithmes d’intelligence artificielle – Vicarious [1] – pour une seule et unique raison :
« garder un œil » sur des développements technologiques qu’il qualifie, dans un tweet, de « potentiellement plus dangereux que l’arme nucléaire »…

Le terme « intelligence artificielle » ou « I.A. » renvoie à un ensemble de sciences dont l’objet est « d’élaborer des programmes informatiques capables d’effectuer des tâches accomplies par des humains », c’est-à-dire qui nécessitent à la fois « un apprentissage, une organisation de la mémoire et un raisonnement »[2] . De la représentation symbolique des connaissances (un des secteurs de recherche en I.A. les plus importants) à la reconnaissance des visages (un des problèmes les plus difficiles de l’I.A.), en passant par la simulation du raisonnement humain, le traitement du langage naturel, la reconnaissance de la parole et de l’écriture, la construction de modèles rudimentaires du cerveau humain, ou encore, l’étude des systèmes complexes adaptatifs, les développements de l’I.A. s’étendent sur un nombre toujours plus vaste de domaines. Et c’est bien ce qui inquiète Musk, parmi d’autres : ces développements augurent de la création d’une intelligence artificielle potentiellement radicalement plus performante – c’est-à-dire, plus intelligente – que le cerveau humain.

Dans un ouvrage paru cet été [3] et largement commenté, le philosophe suisse Nick Bostrom postule qu’une nouvelle « superintelligence » pourrait bien, d’ici quelques dizaines d’années, remplacer les humains et devenir la forme de vie dominante sur Terre. Cette superintelligence résistera spontanément à toute tentative extérieure de contrôle ou déviation de ses objectifs. Le philosophe rappelle que nous n’avons aucune raison de postuler que cette nouvelle forme d’intelligence développera une forme d’éthique : « nous ne pouvons partir naïvement du principe qu’une superintelligence partagera nécessairement les valeurs typiquement associées avec la sagesse et le développement intellectuel chez les humains – la curiosité scientifique, l’attention bienveillante pour les autres, l’éveil spirituel et la contemplation, la renonciation au désir d’enrichissement matériel, un goût pour la culture raffinée ou pour les simples plaisirs de la vie, l’humilité et l’altruisme, etc.».

Bien sûr, les meilleures intentions pourraient être conférées aux intelligences artificielles, mais lorsque leurs capacités dépassent celles de l’intelligence humaine, la poursuite résolue et quasi-implacable de leurs objectifs pourrait avoir des conséquences inquiétantes. La formule du théoricien Eliezer Yudkowsky du Machine Intelligence Research institute est assez éloquente : « l’I.A. ne vous aime pas, elle ne vous hait pas, mais vous êtes faits d’atomes qu’elle peut utiliser à quelque chose d’autre »…

[1] http://vicarious.com/about.html
[2] http://www.intelligenceartificielle.fr/
[3] Superintelligence : Paths, Dangers, Strategies, Nick Bostrom, Oxford University Press, Juillet 2014.