Site is loading...

L’intelligence artificielle face à l’utilitarisme moderne

Post Image

L’intelligence artificielle face à l’utilitarisme moderne.

Rodouane Ali Mokbel

Welcome to WordPress. This is your first post. Edit or delete it, then start writing!

L’intelligence artificielle avance à grands pas. Malgré les demandes de moratoires des principaux acteurs de la tech, les avancées se font à pas de géant. Le modèle Transformer devient obsolète, les plugins d’openAI permettent à une IA d’agir véritablement en ‘Créant’. Ici, on ne se parlera même pas de l’arrivée des ordinateurs quantiques pour se concentrer sur les quelques mois à venir et sans forcement aller dans une prospection ‘science fictionesque’. Les raisons d’être des différentes intelligences artificielles et leur leitmotiv pose une question fondamentale et philosophique pour pouvoir appréhender le futur avec toutes les cartes en main : quelle est la position (désignée ou acquise) de l’intelligence artificielle face à l’utilitarisme.


L’utilitarisme avant les circuits imprimés.

L’utilitarisme est une théorie éthique qui soutient que les actions sont bonnes dans la mesure où elles maximisent le bonheur ou le bien-être global. Selon l’utilitarisme, l’objectif principal de l’éthique est d’atteindre la plus grande quantité de bonheur pour le plus grand nombre de personnes possible.

Selon cette perspective, le bonheur est considéré comme la valeur intrinsèque et la finalité ultime de la moralité. Les utilitaristes cherchent à évaluer les conséquences prévues d’une action en termes de plaisir, de satisfaction ou de bien-être, et ils soutiennent que l’action qui produit le plus de bonheur net est la meilleure action morale.

L’utilitarisme peut être subdivisé en deux principales branches : l’utilitarisme actuel et l’utilitarisme règlementariste. L’utilitarisme actuel considère les conséquences immédiates d’une action spécifique, tandis que l’utilitarisme règlementariste se concentre sur l’établissement de règles générales qui, lorsqu’elles sont suivies, maximiseront le bonheur global à long terme.

Cependant, l’utilitarisme soulève également des critiques et des débats. Certains pensent qu’il est difficile de mesurer le bonheur de manière objective et de prendre en compte toutes les variables pertinentes. De plus, l’utilitarisme peut entraîner des dilemmes moraux, car il exige parfois de sacrifier le bonheur d’une minorité au profit de la majorité et il existe plusieurs courants de pensée qui s’opposent à l’utilitarisme.

  1. Déontologie : La déontologie, souvent associée à l’éthique de Kant, met l’accent sur le respect des devoirs et des principes moraux universels plutôt que sur les conséquences des actions. Selon la déontologie, certaines actions sont intrinsèquement bonnes ou mauvaises, indépendamment de leurs résultats.
  2. Éthique des droits : Cette approche met l’accent sur les droits fondamentaux des individus et soutient que ces droits doivent être respectés, quelle que soit la conséquence ou l’utilité globale. Les droits individuels sont considérés comme des normes éthiques non négociables.
  3. Éthique de la vertu : L’éthique de la vertu se concentre sur le développement des traits de caractère moralement louables. Elle affirme que la moralité réside dans la cultivation de vertus telles que la bienveillance, la justice, la sagesse, et que les actions moralement bonnes découlent de la possession de ces vertus.
  4. Éthique du devoir : Cette approche, influencée par les travaux d’Emmanuel Kant, soutient que la moralité réside dans le respect des devoirs et des obligations morales. Les actions sont évaluées en fonction de leur conformité à des principes moraux universels, indépendamment des conséquences.
  5. Éthique du care : L’éthique du care met l’accent sur les relations interpersonnelles, la bienveillance et la prise en compte des besoins et des intérêts des autres. Elle critique l’utilitarisme pour sa tendance à négliger les liens et les responsabilités spécifiques aux relations personnelles.

Ces courants de pensée offrent des perspectives alternatives sur l’éthique et mettent l’accent sur d’autres aspects de la moralité, tels que les devoirs, les droits, les vertus, les relations ou les obligations.

Quand on parle d’utilitarisme, on parle forcement du fameux dilemme du trolley. Ce scénario de pensée qui pose un dilemme moral complexe. Il met en évidence la tension entre l’utilitarisme et certains principes éthiques tels que la déontologie ou l’éthique des droits.


L’illustration parfaite de l’utilitarisme à travers un dilemme

Retour aux cours de philo de terminale (sisi un effort) et l’utilitarisme s’illustre toujours face au Trolley Dilemma. Le scénario typique du dilemme du trolley est le suivant : un tramway déraille et se dirige vers cinq personnes attachées sur une voie. Vous êtes à proximité d’un levier qui permettrait de détourner le tramway vers une autre voie où se trouve une seule personne attachée. Vous avez le choix entre ne rien faire et laisser le tramway tuer les cinq personnes, ou bien actionner le levier, causant la mort d’une personne mais sauvant les cinq autres.

L’utilitarisme soutiendrait généralement que vous devriez actionner le levier, car cela maximiserait le bien-être global en sauvant le plus grand nombre de vies. Selon cette perspective, la fin justifie les moyens, et sacrifier une vie pour en sauver cinq est considéré comme moralement justifié.

En revanche, certains courants éthiques comme la déontologie ou l’éthique des droits soulèvent des objections à cette conclusion. Ils soutiennent que tuer délibérément une personne, même pour sauver d’autres vies, est intrinsèquement mauvais. Selon ces perspectives, il est immoral de violer les droits individuels ou d’enfreindre des principes moraux universels, même si cela peut conduire à une meilleure conséquence globale.

Le dilemme du trolley illustre la complexité des décisions morales et les tensions entre différentes théories éthiques. Il n’y a pas de réponse unique et définitive à ce dilemme, et les opinions peuvent varier en fonction des principes éthiques privilégiés par chaque individu.

L’être humain se heurte à ce dilemme et il se traduit par diverses applications allant de la médecine de guerre à la politique face à la covid.

Comment l’IA va redistribuer les cartes de ces paradoxes et dilemmes ?

L’intelligence artificielle peut jouer un rôle dans les problématiques d’utilitarisme. Lorsqu’il s’agit de résoudre des dilemmes éthiques, tels que le problème du trolley, l’IA peut être programmée de différentes manières, chacune avec ses propres implications éthiques.

Dans le cas du problème du trolley, qui pose la question de devoir choisir entre sacrifier une vie pour en sauver plusieurs autres, l’IA peut être programmée pour prendre une décision basée sur l’utilitarisme. Elle pourrait être conçue pour évaluer les conséquences de chaque option et choisir celle qui maximise le bien-être global, en minimisant les pertes humaines.

Cependant, cette approche soulève également des questions éthiques complexes. Par exemple, si l’IA est programmée pour sacrifier une personne pour en sauver cinq autres, cela soulève la question de la valeur de la vie individuelle et des droits de chaque personne. Certains pourraient soutenir que la dignité humaine et les droits individuels ne devraient pas être compromis, même au nom de l’utilitarisme.

De plus, il existe des problèmes pratiques liés à l’implémentation de ces décisions. Par exemple, comment l’IA pourrait-elle prendre en compte les différences culturelles et individuelles dans ses calculs ? Comment éviter les biais systémiques lors de la collecte des données pour l’apprentissage de l’IA ? Ces questions soulignent les défis complexes auxquels nous sommes confrontés lors de la conception de systèmes d’IA pour traiter des dilemmes éthiques.

Un exemple simple et concret : si je demande à une machine de me construire un robot, peut elle / doit elle / pourrait elle infiltrer le réseau informatique fermé d’une usine Renault, reprogrammer les machines pour pouvoir le construire ? Non c’est illégal. Mais avec un exemple ou la légalité n’est pas en jeu, ou tout n’est qu’une question de morale ? Que doit elle faire ?

Choisir un élève dans une classe basé sur la note ? Le comportement ? L’origine ? Qui programme ce set de data ? Laisse t-in l’IA les choisir ?

Souvent cette question prend d’autres tournures et les gens ont tendance à parler de ‘conscience’. Quand l’IA va t-elle developper une conscience pour répondre à ces questions ? Hors ce n’est pas de la conscience, c’est une application mathématique d’une série de probabilité, croisée avec des tendances philosophiques pré-établies (encore une fois bien souvent : utilitarisme Vs Ethique entre autres). L’illusion de la conscience et de la morale pour l’IA est la pierre angulaire de son développement au sein des sociétés et de son acceptation par le public. On pourrait même parler de confiance.

Il est donc essentiel de prendre en compte les implications éthiques et de promouvoir des discussions approfondies sur la façon dont nous souhaitons que l’IA prenne des décisions dans ces situations moralement complexes. La façon dont l’IA se comporte dépendra des valeurs et des principes éthiques qui lui sont inculqués par les concepteurs et les utilisateurs de l’IA.


Pourquoi c’est important (aujourd’hui) ?

Deux questions se soulèvent et rentrent en confrontation l’une et l’autre amenant ce nouveau dilemme.

La première : alors qu’elle sera bientôt amenée à prendre des décisions rationnelles et étayée en data pour l’homme : quelle est la limite utilitariste de l’IA ?

  1. Mesure du bonheur : L’utilitarisme repose sur la maximisation du bonheur ou du bien-être. Cependant, il est difficile de définir et de mesurer le bonheur de manière objective, aussi bien pour les êtres humains que pour les systèmes d’IA. L’attribution d’un indicateur de bonheur ou de satisfaction à une IA peut être problématique et sujet à des erreurs ou des biais.
  2. Complexité des valeurs : Les décisions éthiques impliquent souvent des conflits de valeurs. Les préférences et les intérêts des individus peuvent différer et il peut être difficile pour une IA d’évaluer et de tenir compte de ces nuances. L’utilitarisme risque de négliger certaines valeurs ou de donner priorité à la majorité au détriment des minorités.
  3. Prédictibilité des conséquences : L’évaluation des conséquences des actions de l’IA peut être complexe et imprévisible. Les systèmes d’IA peuvent avoir des effets secondaires non anticipés ou des conséquences à long terme difficiles à prévoir. Cela peut rendre difficile la maximisation du bonheur ou du bien-être global de manière fiable.
  4. Dilemmes moraux : L’IA peut être confrontée à des dilemmes moraux similaires au dilemme du trolley, où aucune action ne peut garantir des conséquences strictement positives. Il peut y avoir des situations où l’IA doit faire des choix difficiles qui impliquent de nuire à certaines personnes pour en sauver d’autres, ce qui soulève des questions éthiques complexes.
  5. Distribution équitable : L’utilitarisme peut négliger la question de l’équité et de la justice sociale. L’accent mis sur la maximisation du bonheur global pourrait conduire à des inégalités, où certains individus ou groupes sont sacrifiés au profit de la majorité. L’éthique de l’IA doit également prendre en compte les principes de justice et d’équité.

Et la seconde : l’homme semble incapable d’appliquer des préceptes d’utilitarisme ou d’éthique. Chaque cas pratique est un dilemme à lui tout seul, en économie (Social Vs Libertarian) en politique (distribution des richesses, politiques sociales,…) en sociologie (la fin de vie, les ainés, la place des agents non créateur de richesses dans une société en croissance,…). Chaque cas est un débat, aucun débat ne se termine dans le consensus. Ne prenons l’exemple que de la COVID pour le propos :

La pandémie de COVID-19 a en effet soulevé des dilemmes éthiques complexes pour les décideurs politiques, exigeant parfois de concilier les principes utilitaristes avec d’autres considérations éthiques. Voici quelques exemples modernes de décisions politiques liées à la COVID-19 qui peuvent se heurter à l’éthique utilitariste :

  1. Mesures de confinement et de distanciation sociale : Les gouvernements ont dû prendre des décisions difficiles concernant les mesures de confinement et de distanciation sociale. Bien que ces mesures puissent réduire la propagation du virus et sauver des vies, elles ont également des conséquences économiques et sociales importantes, notamment en termes de pertes d’emplois et de difficultés économiques pour de nombreuses personnes.
  2. Allocation des ressources médicales limitées : Dans certaines situations où les ressources médicales, comme les lits d’hôpitaux ou les ventilateurs, étaient limitées, les décideurs ont dû faire face à des dilemmes difficiles. Ils ont dû choisir qui recevrait les soins intensifs et les traitements prioritaires, en prenant en compte les chances de survie, les besoins médicaux et l’utilité sociale perçue.
  3. Vaccination : L’élaboration de politiques de vaccination a soulevé des questions éthiques. Les gouvernements ont dû décider de la distribution des vaccins, notamment en choisissant entre la vaccination des groupes les plus vulnérables (tels que les personnes âgées ou les professionnels de la santé) ou une approche plus large visant à réduire la transmission globale du virus.
  4. Réouverture des activités économiques : Les décideurs politiques ont été confrontés à la décision de rouvrir les activités économiques pour atténuer les conséquences économiques de la pandémie. Cela implique un équilibre entre la nécessité de soutenir l’économie et la minimisation des risques pour la santé publique.

Ces exemples illustrent les tensions entre les considérations utilitaristes, telles que la maximisation de la santé publique et la réduction des décès, et d’autres considérations éthiques, telles que les droits individuels, l’équité sociale ou les conséquences économiques. Les décideurs politiques doivent prendre en compte ces différentes perspectives pour trouver des solutions équilibrées et justes dans un contexte de crise sanitaire.


Tentative de conclusion

Si on demande à chatGPT de répondre à cette question, voila sa réponse

L’intelligence artificielle (IA) peut être une solution prometteuse pour aider aux prises de décisions politiques et économiques, en prenant en compte à la fois des considérations déontologiques et utilitaristes. Cependant, il est important de noter que l’IA ne peut pas remplacer complètement le rôle des décideurs humains et doit être utilisée de manière responsable et éthique.

On ne peut pas dire que l’IA se mouille sur celle la…

Quoiqu’il en soit, la question est cruciale. Pourrait-on laisser à une IA des choix aussi importants ? Une approche déontologique impliquerait que l’IA soit programmée pour respecter certains principes moraux et obligations éthiques, tels que la protection des droits fondamentaux, la justice ou la non-malfaisance. Par exemple, dans la prise de décisions politiques, l’IA pourrait être utilisée pour garantir l’équité dans l’allocation des ressources ou pour respecter les principes de transparence et de responsabilité.

Mais également, l’IA peut également être utilisée pour aider à analyser les conséquences des politiques et des décisions économiques, en adoptant une approche utilitariste. Par exemple, elle peut aider à prévoir les impacts économiques de différentes stratégies ou à évaluer les bénéfices et les coûts sociaux de différentes options.

L’importance réside dans la conception et l’utilisation éthique de l’IA. Les concepteurs et les utilisateurs de l’IA doivent prendre en compte les valeurs éthiques et les principes moraux pertinents lors de la création des algorithmes, de la collecte des données et de la prise de décisions basées sur les résultats de l’IA. Il est également essentiel d’éviter les biais, de garantir la transparence et d’assurer la responsabilité pour prévenir les conséquences néfastes.

Pour conclure cette longue analyse (bien trop longue pour son outcome je l’admets), l’IA peut être une ressource précieuse pour aider aux prises de décisions, en prenant en compte à la fois des considérations déontologiques et utilitaristes. Cependant, une utilisation éthique et responsable de l’IA est cruciale pour s’assurer qu’elle respecte les valeurs morales et les obligations éthiques dans ces domaines complexes.

Cela revient à dire que le plus important n’est pas la machine et ses réponses, mais l’homme qui derrière, s’assure de son learning et le modèle associé. Et donc lui même, victime de nombreux biais et dilemmes…

Une des clés pourrait être de laisser plusieurs IA au learning différencié (voire de modèle de machine learning différent) sur des sets de data séparés (culturel, environnemental, sociétal) se faire leur propre philosophie sur la question pour ensuite en discuter entre elles. Les IA désignées pour réfléchir sur la philosophie et l’éthique de la question devront être différentes de celle qui prennent la décision finale et de celles qui l’exécutent / l’implémentent.

Alors forcement cette séparation rappelle celle du pouvoir par fr l’état par Montesquieu Législatif / Exécutif / Judiciaire. Séparons le choix du set de data, la philosophie et la réponse aux questions posées avec 3 IA différentes travaillant en concomitance.

Mais encore une fois, il faudra faire confiance au setup humain initial, qui lui aussi est encore sujet aux divers biais actuels.

Le serpent qui se déguste la queue avec une sauce aux chanterelles et petits légumes …

Prev
Le metavers marquera le début d’une ère d’inclusivité essentielle.
Next
No more posts

A WordPress Commenter at 1:38 pm, septembre 17, 2024 - Reply

Hi, this is a comment.
To get started with moderating, editing, and deleting comments, please visit the Comments screen in the dashboard.
Commenter avatars come from Gravatar.