Quelles sont les lois de la robotique ?

1 ) Un robot ne doit pas nuire à un être humain ou, par son inaction, permettre qu’un être humain soit blessé.
2 ) Un robot doit se conformer aux ordres donnés par les êtres humains, à l’exception de ceux qui sont contraires à la première loi.
3 ) Un robot doit protéger sa propre existence dans la mesure où cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Qu’est-ce que c’est ? Est-ce que cela fonctionnera dans le monde réel ?

Les 3 lois de la robotique sont l’une des affirmations les plus connues de l’histoire de la science-fiction et ont souvent servi de référence pour spéculer sur la manière de créer des êtres intelligents sans qu’ils ne finissent par nous nuire ou même nous détruire.

Formulées en 1942 dans l’histoire “Vicious Circle” du célèbre écrivain Isaac Asimov, les 3 lois de la robotique font désormais partie de l’imaginaire collectif, à tel point que beaucoup pensent qu’une formulation exacte de ces lois pourrait nous protéger d’une hypothétique “rébellion des robots”.

Cependant, les choses ne sont pas aussi simples qu’elles le paraissent. Dans cet article, nous allons découvrir ce que sont les lois de la robotique et pourquoi elles ne fonctionneraient pas si elles devaient être appliquées dans le monde réel.

Ces préceptes ne sont pas seulement apparus dans “Le cercle vicieux”, mais ont été évoqués à plusieurs reprises dans différentes histoires d’Asimov, et même dans de nombreuses œuvres ultérieures écrites par d’autres auteurs. Selon Asimov lui-même, l’objectif des 3 lois dans la fiction serait de prévenir une éventuelle rébellion des robots. Ainsi, dans le cas où l’un d’entre eux tenterait de violer l’une des lois, le cerveau électronique du robot serait endommagé et il “mourrait”.

Cependant, s’il y a une chose que nous savons, c’est que la réalité est très complexe et qu’il est impossible de la réduire à des énoncés simples. Asimov n’a pas ignoré cette réalité, loin de là. Au contraire, dans certaines de ses dernières histoires, il mettait en scène des situations dans lesquelles les trois lois pouvaient entrer en conflit.

C’est l’une des raisons pour lesquelles, dans le roman “Robots and Empire” (1985), Asimov a inclus une quatrième loi, appelée la loi zéro de la robotique :

0 ) Un robot ne fera pas de mal à l’humanité ou, par son inaction, ne permettra pas que l’on fasse du mal à l’humanité.

Cette loi zéro était en fait destinée à régir les autres lois de la robotique, afin de résoudre d’éventuels conflits. Cependant, elle se heurterait également à de sérieux obstacles “en pratique”.

Pourquoi ne fonctionneraient-elles pas dans le monde réel ?

Imaginons qu’à un moment donné, nous soyons en mesure de développer des robots dotés d’intelligence. Et imaginons que nous utilisions les 4 lois de la robotique d’Asimov pour contrôler leur comportement. À quoi pourrions-nous nous attendre ?

Probablement à un échec retentissant.

Et ce n’est pas qu’Asimov n’ait pas été assez habile pour les formuler (bien au contraire !), mais qu’elles étaient filles de leur temps, et qu’en plus, elles étaient destinées à contrôler quelque chose qui est peut-être incontrôlable. Expliquons un peu mieux tout cela.

Les lois de la robotique – surtout les trois premières – ont été créées dans un contexte où l’informatique venait à peine de naître et où l’intelligence artificielle était un concept purement confiné à la science-fiction.

L’approche d’Asimov était donc celle de la prédétermination des actions des robots. Tous leurs comportements seraient prévus par une programmation exhaustive qui tenterait d’en contrôler les moindres détails.

Cependant, Asimov lui-même nous mettait en garde dans ses récits contre les dilemmes que cela pouvait entraîner. La réalité est extrêmement complexe et des situations de conflit peuvent survenir régulièrement. Mais pas seulement.

Au cours des dernières décennies, et plus particulièrement ces dernières années, le concept d’intelligence artificielle a été étroitement lié à ce que l’on appelle l’apprentissage automatique.

Cette technique permet – très schématiquement – aux programmes d’apprendre par l’expérience de manière plus ou moins autonome. Ainsi, ils expérimentent de manière répétée certains types de situations, après quoi ils extraient des modèles qu’ils utiliseront pour atteindre un objectif spécifique. C’est par cette technique que certains programmes apprennent à identifier des images, à conduire des véhicules ou à comprendre le langage naturel humain.

Cela nous amène à penser que, si nous parvenions à développer une Intelligence Artificielle Générale, telle que proposée par Asimov, elle ne serait pas complètement programmable, mais serait capable d’apprendre à partir de sa propre expérience et de tirer ses propres conclusions.

La question se pose donc,

Les lois de la robotique seraient-elles capables de contrôler le comportement d’une intelligence artificielle développée sur la base des principes de l’apprentissage automatique ?

Il semble difficile de répondre à cette question.

Plus encore. Bien qu’il s’agisse d’une hypothèse, de nombreux auteurs pensent qu’une fois le développement d’une Intelligence Artificielle Générale réalisé, celle-ci serait capable de continuer à évoluer, de devenir de plus en plus intelligente et de dépasser de loin les capacités de l’être humain.

Une intelligence aussi puissante ne serait-elle pas capable de trouver des failles dans son code pour enfreindre les lois préprogrammées ? Par exemple, il n’est pas difficile d’imaginer qu’avec le temps, elle pourrait passer outre les mécanismes développés pour s’autodétruire en cas de non-respect des lois.

Il n’en reste pas moins que les débats qu’Isaac Asimov a soulevés à travers ses lois de la robotique sont toujours d’actualité et pourraient faire l’objet d’une grande attention, près d’un siècle après qu’il les ait consignés dans ses récits… Presque rien ! N’importe quel écrivain serait fier de nous faire imaginer autant et aussi longtemps.

D’ailleurs, avant de regarder votre robot aspirateur d’un air méfiant, pourquoi ne pas découvrir Pandora FMS ?

Pandora FMS est un logiciel de surveillance flexible, capable de surveiller des appareils, des infrastructures, des applications, des services et des processus d’entreprise.

Vous voulez en savoir plus sur ce que Pandora FMS peut vous offrir ?

Découvrez-le en cliquant ici.

Si vous devez surveiller plus de 100 appareils, vous pouvez également profiter d’une DEMO GRATUITE de 30 jours de Pandora FMS Enterprise. Cliquez ici.

N’hésitez pas à nous envoyer vos questions, l’équipe de Pandora FMS sera ravie de vous aider !

Shares