5 stratégies essentielles pour renforcer la confiance dans la technologie de l'IA

Des chercheurs de l'Université du Colorado à Boulder dévoilent un cadre pour renforcer la confiance dans l'IA, mettant en avant cinq stratégies essentielles. Ces conclusions visent à favoriser une adoption plus large des systèmes d'IA.

Alors que les taxis autonomes se déploient à travers le pays, l'Université du Colorado à Boulder mène des recherches pour garantir la fiabilité et l'acceptation généralisée des systèmes d'intelligence artificielle. Amir Behzadan, professeur au Département de génie civil, environnemental et architectural et membre de l'Institut des sciences du comportement (IBS) de l'Université du Colorado à Boulder, est à la tête de cette initiative.

Behzadan et son équipe du laboratoire de recherche sur l'informatique connectée et l'environnement bâti (CIBER) ont créé un cadre pour le développement d’outils d’IA qui profitent aux personnes et à la société.

Et dans un nouvel article publié Dans la revue AI and Ethics, Behzada et son doctorante Armita Dabiri se sont appuyés sur ce cadre pour concevoir un outil d'IA conceptuel qui intègre des éléments clés de la fiabilité.

« En tant qu'être humain, lorsque vous vous exposez à un danger potentiel, en présumant que les autres ont de bonnes intentions, vous leur faites confiance », a déclaré Behzadan dans un communiqué de presse. « Et vous pouvez désormais transposer ce concept des relations interhumaines aux relations homme-technologie. »

Comprendre la confiance dans l'IA

Behzadan explore comment la confiance humaine peut être intégrée aux systèmes d'IA utilisés au quotidien, notamment les voitures autonomes, les appareils domestiques intelligents et les applications de transports en commun. La confiance est un facteur déterminant dans l'adoption et la dépendance à ces technologies, a-t-il souligné.

Historiquement, la confiance a été fondamentale pour la coopération humaine et le progrès sociétal, a observé Behzadan. Cette dynamique de confiance et de méfiance se reflète aujourd'hui dans notre attitude envers l'IA, en particulier lorsque son développement apparaît opaque ou impulsé par des entreprises ou des gouvernements distants.

Cinq stratégies pour renforcer la confiance dans l'IA

Les chercheurs ont identifié cinq éléments clés qui contribuent à rendre les outils d’IA plus fiables :

1. Conception centrée sur l'utilisateur

La confiance dans l’IA varie d’une personne à l’autre, influencée par les expériences personnelles, les normes culturelles et la familiarité technologique.

Behzadan a souligné que la compréhension des caractéristiques des utilisateurs cibles est essentielle pour concevoir une IA fiable. Citons par exemple les assistants vocaux qui adaptent les interfaces aux personnes âgées.

2. Fiabilité, éthique et transparence

Un système d’IA fiable doit fonctionner de manière cohérente, garantir la sécurité des utilisateurs, protéger la confidentialité et fonctionner de manière transparente.

Behzadan a souligné l'importance d'intégrer des normes éthiques et d'éliminer les biais opérationnels. La transparence dans l'utilisation des données et les processus décisionnels renforce la confiance des utilisateurs.

3. Sensibilité contextuelle

Les outils d’IA doivent être adaptés au contexte spécifique qu’ils servent.

Dans leur étude, Behzadan et Dabiri ont proposé un outil basé sur l’IA, « PreservAI », pour aider à l’entretien collaboratif des bâtiments historiques en prenant en compte les contributions et les priorités des diverses parties prenantes.

4. Facilité d'utilisation et mécanismes de rétroaction

La convivialité est essentielle à la confiance. Les systèmes d'IA doivent interagir positivement avec les utilisateurs et leur permettre de signaler les problèmes et de donner leur avis.

« Même si vous disposez du système le plus fiable, si vous ne laissez pas les gens interagir avec, ils ne lui feront pas confiance. Si très peu de personnes l'ont réellement testé, on ne peut pas s'attendre à ce que toute une société lui fasse confiance et l'utilise », a expliqué Behzadan.

5. Adaptabilité pour rétablir la confiance

La confiance dans l'IA peut fluctuer. Par exemple, si un taxi autonome est impliqué dans un accident, les utilisateurs peuvent perdre confiance.

Cependant, l'amélioration et l'adaptation de la technologie peuvent contribuer à restaurer la confiance. Behzadan l'a illustré avec le chatbot « Zo » de Microsoft, qui a gagné la confiance grâce à une conception améliorée après l'échec de son prédécesseur, « Tay ».

Aller de l'avant

Bien que les systèmes d'IA comportent des risques, une confiance accrue peut favoriser leur développement et leur acceptation par la société. Lorsque les utilisateurs sont disposés à interagir avec l'IA et à partager des données avec elle, ces systèmes gagnent en précision et en utilité.

« Lorsque les gens font suffisamment confiance aux systèmes d'IA pour partager leurs données et interagir avec eux de manière pertinente, ces systèmes peuvent s'améliorer considérablement, devenant plus précis, plus justes et plus utiles », a ajouté Behzadan. « La confiance n'est pas seulement un avantage de la technologie ; c'est un moyen pour les gens d'obtenir en retour un soutien plus personnalisé et plus efficace de l'IA. »

Source: Université du Colorado à Boulder