La confiance dans l'intelligence artificielle – objectif et solution tout à la fois

01.10.2019
Contribution de Marisa Tschopp, Marc Ruef
Publié dans:  intelligence artificielle, confiance
Version originale en allemand

On dit que l'intelligence artificielle est susceptible de transformer positivement quantité de secteurs, de la médecine à la planification urbaine. Certes, mais elle a aussi des conséquences discutables, si on pense à ces fausses vidéos qui font tenir à des présidents des propos diffamatoires. Elle donne également une nouvelle dimension à la culture de la surveillance, par exemple en décidant si un bon citoyen mérite un prêt ou une augmentation salariale. Le débat autour de la vie privée et de la sécurité des données est lui aussi très vif, comme on peut le voir actuellement avec l'application Faceapp, devenue virale: 150 millions d'utilisateurs ont téléchargé une photo de leur visage sur une application russe pour voir à quoi ils ressembleront dans 50 ans, sans savoir ce qui en sera fait ni dans quel but les algorithmes seront utilisés. Il est tout à fait possible que les exploitants de Faceapp mettent leurs algorithmes à disposition de l'armée pour développer des systèmes d'armes autonomes. C'est ce genre d'apocalypse de la robotique que nous ne voulons voir que sous forme de fiction à la télévision. Il serait paradoxal de ne pas se montrer sceptique face à cela, n'est-ce pas?

Mais il faut être capable de différencier ce qu'est l'intelligence artificielle de ce qu'elle peut faire. C'est face aux réponses tranchées qu'il faut faire preuve de scepticisme, car l'intelligence artificielle fait l'objet de recherches dans différentes disciplines et est utilisée dans de nombreux sous-domaines avec un degré de complexité variable: la reconnaissance vocale, les véhicules autonomes ou des jeux comme les échecs ou le Jeopardy!, qui ont battu de nombreux champions du monde, ne sont que quelques exemples parmi tant d'autres. Les services de référencement comme Netflix ou Youtube sont également considérés comme une forme d'intelligence artificielle, puisqu'ils aident à prendre des décisions. Mais celles-ci ne sont que partiellement autonome car à la fin, c'est encore l'être humain qui décide.

Il n'y a pas de réponses claires dans le contexte de l'intelligence artificielle. Historiquement, celle-ci a commencé vers 1950. Elle se caractérisait par un grand enthousiasme et des attentes élevées suivies de désillusion, dont de nombreuses entreprises ont été victimes dans les années 1980. Allons-nous vers une nouvelle déception? Les experts pensent que non: l'intelligence artificielle a fait son retour pour rester.

Aujourd'hui, l'intelligence artificielle connaît une nouvelle apogée et des milliards sont investis, mais la confiance est ternie. Les voix critiques, les éthiciens et les activistes freinent l'enthousiasme, à juste titre: les problèmes techniques, le manque de prévisibilité et d'information, le battage médiatique, la position monopolistique des géants de la technologie, les interprétations erronées ou trompeuses, tout cela entraîne la méfiance.

Pour exploiter tout le potentiel de l'intelligence artificielle, il faudra gagner quelque chose d'encore plus insaisissable que la technologie et les lois de protection des données: la confiance humaine. Ce phénomène psychologique n'est pas seulement perceptible, il est aussi mesurable. C'est la confiance qui rend possible l'interaction, tant avec l'être humain qu'avec la machine. Les lois et la sécurité technologique sont nécessaires, mais elles ne sont pas suffisantes. Si l'on veut que l'être humain ait confiance dans l'intelligence artificielle (dans ses fournisseurs, ses programmeurs, ses programmes et ses processus), c'est au niveau de l'être humain qu'il faut agir: Que fait l'intelligence artificielle de nous en tant qu'individus? Comment influence-t-elle notre communication, notre convivialité? Nous n'avons pas de réponses. C'est maintenant que nous devons nous poser ces questions: Dans quelle mesure pouvons-nous et voulons-nous faire confiance à l'intelligence artificielle, et où devons-nous fixer des limites claires?

Marisa Tschopp
Marisa Tschopp
scip SA
Marc Ruef
Marc Ruef
scip SA