L'intelligence artificielle, entre art et ingénierie

09.05.2019
Contribution de Prof. Dr. Oliver Bendel
Publié dans:  intelligence artificielle, robotique, éthique, interview
Version originale en allemand

L'utilisation croissante de l'intelligence artificielle (IA) est inhérente à la transformation numérique de la société et de l'économie, et elle a des conséquences sur notre vie privée et professionnelle. La Suisse joue un rôle important au niveau mondial dans les domaines de la recherche et du développement de l’IA. Le Conseil fédéral a d’ailleurs créé un groupe de travail interne qui présentera en automne 2019 une vue d’ensemble des mesures existantes, une évaluation des nouveaux domaines d'action et des réflexions pour une utilisation transparente et responsable de l'intelligence artificielle. Le professeur Oliver Bendel est expert en gestion des connaissances, en éthique de l'information et en éthique des machines. Ses recherches dans ce domaine rencontrent un grand intérêt dans le monde entier. Depuis 1998, il a publié plus de 350 articles, livres et autres publications spécialisées. Nous lui avons demandé ce que l'éthique et l'intelligence artificielle ont à voir ensemble.

Vous êtes expert en éthique des machines. Les machines peuvent-elles être bonnes ou mauvaises?

Les machines ne peuvent pas être bonnes ou mauvaises en soi. Il faudrait pour cela qu’elles puissent avoir de bonnes ou de mauvaises intentions. En éthique des machines, lorsqu’on parle de morale d’une machine ou de machines morales, il s’agit d’une expression, car les systèmes autonomes généralement impliqués n'ont ni empathie, ni intuition, ni conscience, ni libre arbitre, et ils ne sont ni bons ni mauvais. Mais ils peuvent suivre les règles morales que nous leur donnons, et certains systèmes peuvent même les modifier.

Quels nouveaux problèmes éthiques se posent avec l'intelligence artificielle?

L'éthique de l'information s’intéresse à l'influence de l'intelligence artificielle sur l'autonomie personnelle et informationnelle. La reconnaissance faciale, par exemple, pose de nombreux défis. Nous devons nous demander si nous voulons laisser des systèmes techniques décrypter des visages humains, et nous interroger sur la collecte, l'évaluation et la diffusion des données qui en résultent. L'éthique des machines s’intéresse à la façon dont les systèmes autonomes peuvent être dotés de capacités morales. Dans certaines applications, des machines morales peuvent s’avérer utiles, dans d’autres pas. Des voitures qui freinent pour les animaux? Volontiers! Qui décident de la vie et de la mort de personnes? Ça non!

Dans notre volonté d’améliorer l’efficacité et la croissance économique, est-ce que nous prenons des risques imprévisibles liés à l’intelligence artificielle? Et si oui, peut-on justifier cela au nom du progrès?

Disons pour commencer que je situe l’intelligence artificielle entre art et ingénierie. On ne peut pas la réduire à une branche de l’informatique ou de la robotique, elle doit être appréhendée de manière beaucoup plus globale. On imite des aspects de l’intelligence humaine ou animale, on essaie d’obtenir une intelligence d’un nouveau type. Il faut pour cela bien davantage qu’une simple compréhension technique. Devrions-nous développer des robots humanoïdes ou de l’intelligence artificielle qui soient dotés de compétences analytiques, créatives, ou conversationnelles? Bien sûr qu’on doit le faire. Cela répond à un vieux rêve de l’humanité. Ovide écrivait à propos de Galatea, la créature de Pygmalion: «L’art empêchait de voir que ce n’était que de l’art.» Certaines inventions n’ont toutefois pas à quitter le laboratoire. Tout ce qui est créé ne doit pas forcément sortir au grand jour.

Quant à améliorer l’efficacité et la croissance économique, il s’agit là de stratégies et d’idéologies qui peuvent se combiner avec l’intelligence artificielle. Les possibilités sont nombreuses, et pas seulement dans le domaine médical. Les risques également sont nombreux, notamment lorsqu’on utilise des systèmes d’IA pour surveiller les gens, lorsqu’on laisse ces systèmes porter des jugements sur des candidats ou des clients de manière opaque et arbitraire, ou encore lorsque des entreprises se reposent sur eux pour des décisions importantes. Je pense qu’on devrait laisser autant de liberté que possible à la recherche et au développement. Ce qu’il faut réglementer, ce sont les applications. Un problème apparaît dès lors comme évident, c’est que les robots et les systèmes d'IA prennent notre place de travailleur ou d’employé. Il est important que les entreprises redistribuent équitablement les bénéfices qu’elles ont réussi à obtenir sans nous. Ce n’est qu’ainsi que les robots et les systèmes d’IA pourront contribuer à la qualité de la vie, avec des travailleurs moins rémunérés mais qui auront davantage de plaisir au travail et de loisirs.

Quelles sont les questions les plus importantes aujourd’hui pour le monde politique et l'administration?

Les machines font-elles de meilleurs politiciens ou employés administratifs? Doivent-elles analyser et contrôler les citoyens? Comment ces derniers peuvent-ils s’y opposer ou exercer une influence? Devons-nous instaurer un impôt sur les robots et un revenu de base inconditionnel? Quelles formes de recherche sur l'IA doit-on encourager, ou non?

Le monde politique a découvert l'éthique, et l'IA y n’y est pas pour rien. Dans les commissions de l'UE qui s’occupent du sujet, on trouve souvent bien peu d'éthiciens philosophes, mais quantité d'éthiciens en théologie et de représentants des entreprises. La Suisse peut prendre un autre chemin. Ayez le courage d’engager davantage d'éthiciens philosophes! Mais surtout, ayez le courage de leur laisser la liberté dont ils ont besoin! Le philosophe aime le doute. Celui-ci doit pouvoir toucher également la politique, l'administration et l'économie. C'est justement ce qui est habituel et bien établi qui doit être remis en question. Étreint de trop près, l’éthicien étouffe.

Prof. Dr. Oliver Bendel
Prof. Dr. Olivier Bendel
Haute école spécialisée du Nord-Ouest de la Suisse (FHNW)