Vous n'êtes pas identifié(e).
Implanter des lois humaines, quasiment juridiques dans un robot, c'est déjà de la science-fiction. Un algorithme mathématise les concepts et les simplifie. Il est difficile de mathématiser le principe d'Humanité, même impossible sans trop le simplifier.
Ça pose quand même le problème de réduire un principe moral à quelque chose de purement mécanique. Sans parler d'interprétation qui donnerait une conscience au robot, les lois peuvent entrer en contradiction.
Il y a une différence entre bien jouer au jeu de Go purement mathématisable en envisageant toutes les possibilités et distinguer une personne en danger ou non, c'est impossible même pour le moment.
Hors ligne
Les 3 lois n'impliquent pas qu'une IA doive forcément identifier à tous les coups qu'un humain est en danger.
La capacité à reconnaître qu'un humain est en danger n'est qu'un pré-requis à l'application des 3 lois, pas à leur implémentation.
You either die as a fan or wait for enough sequels to see yourself become the hater.
Hors ligne
Quel est l'intérêt d’implémenter une loi qui n'est pas applicable ?
Mais je maintiens qu'implémenter une loi de ce genre est impossible, ça implique des concepts que le robot ne peut comprendre que s'il a un jugement moral.
Un robot doit obéir aux ordres qui lui sont donnés par un être humain
La deuxième loi est inutile par rapport aux IA actuels, les IA ne doivent pas obéir, elles sont obligés, elle ne se posent même pas la question, un algorithme répond à une demande, il ne peut rien faire d'autre. La loi est formulee comme si le robot pouvait ne pas obéir aux ordres qu'on lui donne. C'est déjà de la SF.
Hors ligne
Mais du coup, y'a pas de robots militaires chez Asimov ?
"Everybody wants to be a bodybuilder, but nobody wants to lift no heavy-ass weights"
Hors ligne
Quel est l'intérêt d’implémenter une loi qui n'est pas applicable ?
Siri est implémentée pour répondre aux questions qu'on lui pose, même si des fois elle ne les comprend pas.
Un robot doit obéir aux ordres qui lui sont donnés par un être humain
La deuxième loi est inutile par rapport aux IA actuels, les IA ne doivent pas obéir, elles sont obligés, elle ne se posent même pas la question, un algorithme répond à une demande, il ne peut rien faire d'autre. La loi est formulee comme si le robot pouvait ne pas obéir aux ordres qu'on lui donne. C'est déjà de la SF.
Quand tu lui demandes certains trucs, Siri refuse de répondre.
Pour les robots militaires chez Asimov je ne sais pas, c'est vrai que les 3 lois sont incompatibles avec une utilisation militaire.
You either die as a fan or wait for enough sequels to see yourself become the hater.
Hors ligne
Freak a écrit :Quel est l'intérêt d’implémenter une loi qui n'est pas applicable ?
Siri est implémentée pour répondre aux questions qu'on lui pose, même si des fois elle ne les comprend pas.
Freak a écrit :Un robot doit obéir aux ordres qui lui sont donnés par un être humain
La deuxième loi est inutile par rapport aux IA actuels, les IA ne doivent pas obéir, elles sont obligés, elle ne se posent même pas la question, un algorithme répond à une demande, il ne peut rien faire d'autre. La loi est formulee comme si le robot pouvait ne pas obéir aux ordres qu'on lui donne. C'est déjà de la SF.Quand tu lui demandes certains trucs, Siri refuse de répondre.
Pour les robots militaires chez Asimov je ne sais pas, c'est vrai que les 3 lois sont incompatibles avec une utilisation militaire.
Il me semble pas... Après quand on avance dans le cycle de fondation, il y a des robots...
Asimov est très antimilitariste, au contraire d'autres auteurs... (Heinlein par exemple)
une petite visite à mon site.
Merci
Hors ligne
Freak a écrit :Un robot doit obéir aux ordres qui lui sont donnés par un être humain
La deuxième loi est inutile par rapport aux IA actuels, les IA ne doivent pas obéir, elles sont obligés, elle ne se posent même pas la question, un algorithme répond à une demande, il ne peut rien faire d'autre. La loi est formulee comme si le robot pouvait ne pas obéir aux ordres qu'on lui donne. C'est déjà de la SF.Quand tu lui demandes certains trucs, Siri refuse de répondre.
Je vois pas ce que tu cherches à prouver là. Siri n'est pas programmé selon les 3 lois d'Asimov. ^^
Après je ne sais pas dans quelle cas elle ne répond pas mais je suppose que c'est soit des questions bannies dans sa programmation, soit quand elle ne "capte" pas la question. En aucun cas, ce n'est un refus conscient.
Dernière modification par Taylor BC (16-01-2018 17:00:09)
Hors ligne
Je répondais à Freak qui disait que dans la réalité un robot ne peut pas refuser un ordre donné par un humain.
Et je n'ai jamais parlé de conscience. Il n'est pas question de conscience dans l'énoncé des 3 lois d'Asimov, juste d'appliquer un algo. Au contraire, la conscience c'est ce qui fait que les 3 lois ne fonctionnent plus.
You either die as a fan or wait for enough sequels to see yourself become the hater.
Hors ligne
Je ne connais pas Siri mais quand elle refuse de répondre, c'est pas un refus au sens propre.
Un algo a une entrée et une sortie, s'il n'y a pas de trucs à la sortie, c'est que soit ça ne marche pas à cause d'une limite technique, soit parce que certaines entrées ont été programmées pour ne rien donner. Mais l'algo choisit rien.
Si tu programmes une calculatrice et qu'elle ne sait pas répondre pour certains calculs complexes, c'est pas un refus, c'est une limite dans la programmation ou un domaine qui n'a été programmé pour la calculatrice.
Si un ingénieur crée un algorithme électrique pour un ascenseur, il ne va pas demander électriquement au bouton d'ascenseur de respecter les ordres des gens , ça paraît absurde. Si le bouton ne marche pas, c'est un problème pas un refus et si c'est un vrai refus il a été programmé par quelqu'un d'extérieur.
Dernière modification par Freak (17-01-2018 12:02:07)
Hors ligne
Le bouton de l'ascenseur peut refuser de t'emmener à un étage si tu n'as pas le bon badge d'accès par exemple.
C'est un critère de refus qui a été implémenté par quelqu'un, comme ceux de Siri et comme un robot qui refuserait de tuer quelqu'un parce qu'on lui a implémenté les 3 lois.
You either die as a fan or wait for enough sequels to see yourself become the hater.
Hors ligne
On va tourner un peu en rond mais c'est ce que j'ai dit du coup. C'est une contraction sur les termes.
Si l'ascenseur n'emmène pas quelqu'un, ce n'est pas un refus au sens strict, c'est que la sortie de son algorithme arrive sur le résultat qui bloque l'ascenseur. La condition "avoir le bon badge d'accès" n'a pas été validée. C'est toujours une implémentation mathématique algorithmique avec des portes logiques. Mais à aucun moment, le concepteur implante dans l'ascenseur : "tu dois obéir aux ordres suivant telle ou telle condition" , un algorithme n'a rien n'avoir avec des lois. L'algorithme est la raison d'être de l'ascenseur, l'ascenseur ne s'y réfère pas, il est l'algorithme.
Tu n'as pas besoin d'implémenter dans un robot tondeuse de ne pas tuer d'êtres humains parce que si elle a été programmée pour tondre du gazon uniquement et bah elle ne fera que ça dans un monde normal. Bien sûr que tu peux implémenter des conditions particulières d'utilisation mais ça n'a rien n'avoir avec un refus ou des lois.
Un robot normal programmé pour aider les gens et leur obéir suivant certaines conditions ne fera qu'aider les gens et leur obéir suivant ces conditions. Il n'y a pas de lois à la Asimov là-dedans.
Une machine à café ne fait que du café, tu n'as pas besoin de lui implémenter un code qui protège les humains et même si tu veux le faire, tu fais un algorithme qui ne verse pas de café s'il y a un mouvement avec des capteurs mais c'est pas une loi abstraite sur l'Humanité entière.
Et je cherche toujours comme faire un algo protégeant l'humain en danger et respectant l'Humanité dans son ensemble. Je crois pas que l'humanisme soit programmable.
Dernière modification par Freak (19-01-2018 15:21:53)
Hors ligne
Le désaccord vient juste du fait que pour moi les 3 lois de la robotique sont un algo traduit en termes littéraires, alors que toi tu fais une différence fondamentale entre les deux.
You either die as a fan or wait for enough sequels to see yourself become the hater.
Hors ligne
On y arrive bientôt ?
https://www.futura-sciences.com/tech/ac … tor=EPR-57-[ALERTE]-20180202
"Dans d'autres siècles, les êtres humains voulaient êtres sauvés, ou améliorés, ou libérés, ou éduqués. Mais dans le nôtre, ils veulent êtres divertis. La grande peur de notre siècle n'est pas la maladie ou la mort, mais l'ennui. Un sentiment de temps libre entre nos mains. Un sentiment de ne rien faire. Le sentiment de ne pas être divertis."
Michael Crichton
Hors ligne
On y arrive bientôt ?
https://www.futura-sciences.com/tech/ac … tor=EPR-57-[ALERTE]-20180202
http://gamingway.fr/wp-content/uploads/ … A9ment.jpg
Cette fois oui, nous avons presque atteint le futur sans potion aux œufs de caille ni voiture spatio-temporelle (ces méthodes science-fictives seront peut-être possibles dans le futur, pour voyager dans l’époque encore au-delà du futur).
Les historiens du futur ex-présent devront se mettre d’accord pour déterminer la date et l’événement marquant la rupture.
Hors ligne
Ils parlent de code de la route, mais "Code de la route aérienne" serait plus approprié.
"Dans d'autres siècles, les êtres humains voulaient êtres sauvés, ou améliorés, ou libérés, ou éduqués. Mais dans le nôtre, ils veulent êtres divertis. La grande peur de notre siècle n'est pas la maladie ou la mort, mais l'ennui. Un sentiment de temps libre entre nos mains. Un sentiment de ne rien faire. Le sentiment de ne pas être divertis."
Michael Crichton
Hors ligne
Xenobiologie.
Winter is coming.
Hors ligne
Intéressant !
Dernière modification par Owen Grady (15-03-2018 18:46:49)
Hors ligne
Les gens qui regardent encore les top 10 et croient apprendre des choses
Hors ligne
Tu as vu un peu la Xénobiologie Freak?
Winter is coming.
Hors ligne