Hello Robot, pourquoi une IA trop réaliste est mauvaise

[ad_1]

Est-ce que je parle à un robot logiciel ou à un humain ? C’est une question que beaucoup d’entre nous auront posée à un moment donné lorsque nous interagissons en ligne avec un chatbot d’interface Web avec son « Salut ! Puis-je aider?’ drapeaux de message et boîte de discussion.

Certains d’entre nous essaient délibérément de deviner ces robots afin de déterminer si nous parlons à une machine ou à une personne. Nous le faisons parce que nous espérons d’une manière ou d’une autre que cette connaissance nous permettra d’évaluer plus précisément l’aide que nous sommes susceptibles d’obtenir – et ainsi, peut-être, d’avoir une idée de l’effort que nous devrions déployer pour expliquer les problèmes ou les demandes de nos clients.

IA de Turing et trop réaliste

À l’heure actuelle, il n’est pas nécessairement si difficile de savoir si vous parlez à un moteur d’intelligence artificielle (IA). Les essai de Turing a bien sûr été établi pour évaluer le point auquel les gens ne peuvent pas faire la différence entre un humain et une machine. Les robots logiciels d’IA qui ont réussi le test de Turing jusqu’à présent ont reçu des traits de personnalité originaux pour masquer les défis que même les meilleurs moteurs d’IA ont lorsqu’ils font face aux défis de la conversation humaine.

Alors, ces robots d’IA excentriques et trop réalistes sont-ils une bonne ou une mauvaise chose ?

Amanda Curry, doctorant à la Robotarium national à l’Université Heriot-Watt du Royaume-Uni (maintenant chercheur postdoctoral basé en Italie), explique que certaines IA sont désormais configurées avec des traits de personnalité et qu’elles essaient de construire une relation avec l’utilisateur. Curry indique que cela peut entraîner des problèmes de confidentialité lorsque les humains donnent volontairement plus d’informations que prévu car ils ne savent pas ce qu’une entreprise pourrait faire avec ces informations.

« Cela comporte des risques inhérents lorsque les gens ont des systèmes dans leur maison qui interagissent avec la famille au sens large, y compris les enfants. Lorsque les gens sont plus détendus, ils ont tendance à révéler plus d’informations personnelles, ce qui peut être un risque associé à ce que nous avons classé comme une « IA trop réaliste », car l’interaction et le langage utilisés sont plus naturels et fluides », a déclaré Curry.

Les robots d’IA ont besoin de neutralité de genre

L’utilisateur moyen serait pardonné de penser que les robots d’IA sont principalement construits autour des principes de non-sexe, mais en fait, beaucoup sont créés avec un personnage féminin presque réceptionniste/secrétaire. La question de savoir si les préjugés inconscients d’un utilisateur entrent également en jeu ici est sujette à débat, mais l’équipe du Robotarium national dirigée par Professeur Verena-Rieser confirment que certains moteurs d’IA ont fait l’objet d’abus et même de harcèlement sexuel.

UNE Rapport 2019 de l’UNESCO sur l’intelligence artificielle a démontré comment les IA peuvent « refléter, renforcer et propager les préjugés sexistes » aujourd’hui. Avec toute une génération de jeunes qui interagissent quotidiennement avec ces moteurs d’IA, c’est un sujet de préoccupation croissant. La façon dont l’IA réagit aux abus est un autre domaine difficile pour les professionnels du développement d’applications logicielles.

Curry explique qu’environ 5% des interactions enregistrées avec un chatbot expérimental lors de l’Amazon Alexa Challenge du National Robotarium pourraient être classées comme abusives.

Bien que ce chiffre en soi semble assez élevé, la proportion est encore plus élevée pour les robots d’IA comme Kuki (qui enregistre environ 30% d’abus) … donc le problème ici est que quand et où ces comportements deviennent réguliers et normalisés à au niveau du bot AI, cela pourrait avoir un impact externe sur les interactions en ligne entre humains.

L’IA a une implication sur l’empreinte carbone

« Les impacts environnementaux des IA sont rarement évoqués – lorsqu’un individu demande à un assistant IA d’allumer la lumière (comme vous le feriez avec un autre membre de votre ménage), cette commande doit être envoyée jusqu’à l’entreprise pour être traitée impliquant des entrées/sorties et des connexions de cloud computing potentiellement massives. Lorsque cette commande est renvoyée à votre assistant IA, elle utilise beaucoup d’énergie et produit beaucoup de carbone », a souligné Curry.

Plus nos IA deviennent réalistes, plus il est probable que nous leur demanderons d’en faire plus. Alors, questionne Curry, cela signifie-t-il que nous augmenterons involontairement notre empreinte carbone ?

Compte tenu de toutes ces forces négatives, qu’est-ce qui, selon Curry, fait un bon chatbot d’IA ?

« Les chatbots les plus utiles ne sont peut-être pas aussi sophistiqués que certains de la variété trop réaliste à première vue ; au lieu de cela, ils sont plus fonctionnels et transactionnels. Ceux qui sont légèrement plus réalistes ne sont pas nécessairement aussi sophistiqués dans les coulisses. Souvent, il n’y a pas de véritable Machine Learning (ML) derrière cela ; il est plus basé sur des règles et en fait pas aussi intelligent que les gens pourraient le penser », a déclaré Curry.

Au Robotarium national, l’objectif de l’équipe n’est pas de créer quelque chose qui ne se distingue pas d’un humain, mais plutôt quelque chose de très naturel et avec lequel il est facile d’interagir. Les universitaires disent avoir remarqué que lorsque les gens savent qu’il s’agit d’un système auquel ils parlent, comme un Amazon Alexa/Echo, ils n’essaient pas d’avoir les mêmes conversations qu’avec un humain.

« Une fois que les gens savent qu’il s’agit d’un chatbot, je pense qu’ils sont moins intéressés par sa vie et ce qu’il aime faire dans la vie, quelle pourrait être sa couleur préférée, etc. Ils le voient davantage comme une interface de dialogue parlée pour quelque chose comme une recherche moteur, c’est-à-dire une autre « porte » vers Internet pour ainsi dire », a déclaré Curry.

Les temps de l’IA changent

Curry pense que les humains ne veulent pas toujours des systèmes totalement indiscernables des humains. Lorsque nous savons que nous parlons à un robot logiciel, nous ne voulons pas de bavardages inactifs et de réflexions sur la météo.

« Au départ, notre bot a été conçu pour reproduire une conversation dans un bar en parlant peut-être de politique ou de cinéma. Mais ensuite, nous avons senti que les gens voulaient consommer des informations, nous avons donc pris cette décision de conception. Donc, s’ils parlaient de leur acteur préféré, ils voulaient des faits amusants sur cet acteur et leurs films ou autres performances, plutôt que des opinions et des pensées plus larges », a conclu Curry.

En avril 2021, l’Union européenne (UE) règles proposées cela obligerait les entreprises à divulguer lorsqu’un individu parle à un bot logiciel d’IA – et des réglementations similaires sont déjà en place en Californie pour les bots.

Le règlement de l’UE sur l’IA stipule que les gens devraient pouvoir faire confiance à ce que l’IA a à offrir. Selon l’UE, des règles proportionnées et flexibles aborderont les risques spécifiques posés par les systèmes d’IA et établiront les normes les plus élevées au monde. Son plan décrit les changements de politique et les investissements nécessaires pour renforcer le développement d’une IA centrée sur l’humain, durable, sûre, inclusive et digne de confiance.

Il s’avère que le rôle de l’IA avec les robots est peut-être de les rendre plus semblables à des robots et non plus humains après tout. Oui, d’accord, nous aimons toujours que les robots matériels aient des doigts, des bras et probablement quelques globes oculaires clignotants, mais pour la plupart, ne devenez pas trop humain, s’il vous plaît – d’accord, l’ordinateur ?

[ad_2]

Laisser un commentaire