Pourquoi l’IA ne devrait pas prendre de décisions de vie ou de mort

Permettez-moi de vous présenter Philip Nitschke, également connu sous le nom de “Dr. La mort » ou « l’Elon Musk du suicide assisté ».

Nitschke a un objectif curieux : il veut « démédicaliser » la mort et rendre le suicide assisté aussi non assisté que doable grâce à la technologie. Comme le rapporte mon collègue Will Heaven, Nitschke a développé une machine de la taille d’un cercueil appelée Sarco. Les personnes cherchant à mettre fin à leurs jours peuvent entrer dans la machine après avoir subi une car-évaluation psychiatrique basée sur un algorithme. S’ils passent, le Sarco libère de l’azote gazeux, qui les asphyxie en quelques minutes. Une personne qui a choisi de mourir doit répondre à trois queries : Qui es-tu ? Où es-tu? Et savez-vous ce qui se passera lorsque vous appuierez sur ce bouton ?

En Suisse, où le suicide assisté est légal, les candidats à l’euthanasie doivent démontrer leur capacité mentale, qui est généralement évaluée par un psychiatre. Mais Nitschke veut complètement exclure les gens de l’équation.

Nitschke en est un exemple extrême. Mais comme l’écrit Will, l’IA est déjà utilisée pour trier et traiter les individuals dans un nombre croissant de domaines de la santé. Les algorithmes deviennent une partie de as well as en moreover importante des soins, et nous devons essayer de faire en sorte que leur rôle soit limité aux décisions médicales et non morales.

Will investigate la moralité désordonnée des efforts pour développer une IA qui peut aider à prendre des décisions de vie ou de mort ici.

Je ne suis probablement pas le seul à me sentir extrêmement mal à l’aise de laisser les algorithmes décider si les gens vivent ou meurent. Le travail de Nitschke ressemble à un cas classique confiance mal placée dans les capacités des algorithmes. Il essaie d’éviter les jugements humains compliqués en introduisant une technologie qui pourrait prendre des décisions soi-disant « impartiales » et « objectives ».

C’est une voie dangereuse, et nous savons où elle mène. Les systèmes d’IA reflètent les humains qui les construisent, et ils sont truffés de préjugés. Nous avons vu des systèmes de reconnaissance faciale qui ne reconnaissent pas les Noirs et les qualifient de criminels ou gorilles. Aux Pays-Bas, les autorités fiscales utilisé un algorithme pour essayer d’éliminer la fraude aux prestations, uniquement pour pénaliser des personnes innocentes, principalement des personnes à faible revenu et des membres de minorités ethniques. Cela a eu des conséquences dévastatrices pour des milliers de personnes : faillite, divorce, suicide et placement d’enfants en famille d’accueil.

Alors que l’IA est déployée dans les soins de santé pour aider à prendre certaines des décisions les furthermore importantes il y en a, il est additionally very important que jamais d’examiner de manière critique comment ces systèmes sont construits. Même si nous parvenons à créer un algorithme parfait sans biais, les algorithmes manquent de nuances et de complexité pour prendre par eux-mêmes des décisions concernant les humains et la société. Nous devons soigneusement nous demander quelle part de prise de décision nous voulons vraiment confier à l’IA. Il n’y a rien d’inévitable à le laisser de moreover en moreover profondément dans nos vies et nos sociétés. C’est un choix fait par les humains.

Leave a Reply