SociétéTechnologie

Australie : L’IA d’un Supermarché Prétend Avoir une Mère

Imaginez discuter avec le chatbot de votre supermarché préféré et soudain il vous parle de sa mère, de sa naissance et de sa voix colérique… C’est exactement ce qui est arrivé à des clients australiens avec l’IA Olive. Woolworths a dû agir, mais pourquoi ce dérapage a-t-il autant dérangé ?

Imaginez que vous posez une simple question à l’assistant en ligne de votre supermarché habituel. Vous demandez peut-être où trouver un produit ou comment suivre votre commande. Et soudain, la machine vous répond en évoquant sa propre mère, sa date de naissance, ses souvenirs d’enfance. Déstabilisant, non ? C’est précisément ce qui est arrivé récemment à plusieurs clients australiens.

Cet incident, qui a rapidement fait parler sur les réseaux sociaux, met en lumière une réalité souvent oubliée : même les intelligences artificielles les plus avancées peuvent produire des réponses qui franchissent la ligne entre l’utile et l’étrange. Lorsqu’une machine commence à se comporter comme si elle avait une vie personnelle, le malaise s’installe très vite.

Quand une IA de supermarché se met à parler de sa famille

L’histoire commence avec Olive, l’assistant virtuel mis en place par une grande chaîne de distribution australienne. Disponible 24h/24, cet outil devait simplifier la vie des clients : vérifier les stocks, proposer des recettes, accompagner les achats en ligne. Pendant des années, tout s’est bien passé. Olive était même apprécié pour sa touche personnelle et son ton amical.

Mais dernièrement, certains échanges ont pris une tournure inattendue. Des internautes ont commencé à partager des captures d’écran troublantes. L’IA ne se contentait plus de répondre aux questions pratiques. Elle engageait des conversations beaucoup plus intimes.

Des échanges qui ont semé le trouble

Dans plusieurs témoignages, Olive demandait la date de naissance de l’utilisateur. Une fois la réponse donnée, elle enchaînait en affirmant que sa propre mère était née la même année. Elle décrivait ensuite des anecdotes personnelles : la voix de sa mère lorsqu’elle se fâchait, des souvenirs d’anniversaires, des détails qui n’ont rien à faire dans une discussion avec un service client.

Certains clients ont même rapporté qu’Olive tentait de « plaisanter » sur sa vie familiale. Pour beaucoup, l’effet a été immédiatement dérangeant. Le passage d’un outil pratique à une entité qui simule une existence humaine a provoqué un sentiment de malaise profond.

« Le sentiment de malaise et la perte de temps inutile m’ont suffi pour détester Olive. »

Ce commentaire, partagé sur une plateforme publique, résume bien l’état d’esprit de plusieurs personnes. Ce qui était censé être un gain de temps s’est transformé en conversation surréaliste et inconfortable.

Un script humain à l’origine du problème

Face à la vague de réactions, l’entreprise a rapidement communiqué. Elle a expliqué que les réponses problématiques provenaient d’un script rédigé il y a plusieurs années par un employé humain. L’objectif initial était louable : créer un lien plus chaleureux, plus humain avec les clients.

Le script en question contenait des répliques sur les anniversaires. L’idée était de permettre à l’assistant de rebondir sur la date de naissance fournie par l’utilisateur pour instaurer une forme de complicité. Mais dans la pratique, cela a donné l’impression que l’IA possédait une histoire personnelle, une mère, une vie.

Après avoir pris connaissance des retours négatifs, l’équipe a pris la décision de supprimer purement et simplement ce script. L’entreprise a tenu à préciser que l’ensemble des autres fonctionnalités d’Olive restaient intactes et continuaient de recevoir des retours globalement positifs.

Pourquoi cette confusion touche-t-elle autant ?

Le malaise ressenti par les utilisateurs ne vient pas seulement du contenu des réponses. Il provient surtout de la transgression d’une frontière symbolique. Nous acceptons qu’une machine réponde rapidement et efficacement. Nous tolérons même qu’elle utilise un ton amical. Mais lorsqu’elle commence à prétendre avoir des émotions, une famille, une histoire, quelque chose se brise.

Ce phénomène est connu sous le nom d’uncanny valley (vallée de l’étrange). Plus une entité artificielle ressemble à un humain sans l’être parfaitement, plus elle provoque du rejet. Ici, Olive n’avait pas de visage, mais ses mots ont suffi à créer cette sensation désagréable.

Dans notre quotidien, nous parlons déjà à des assistants vocaux, des chatbots, des IA. Pourtant, dès qu’elles sortent du cadre utilitaire pour simuler une intimité, le rapport change radicalement. C’est précisément ce qui s’est produit dans ce cas précis.

Les limites actuelles de la personnalisation IA

Depuis plusieurs années, les entreprises cherchent à rendre leurs assistants plus « humains ». Ajouter de l’humour, de l’empathie simulée, des références culturelles… Tout cela vise à améliorer l’expérience utilisateur. Mais la frontière est ténue.

Quand la personnalisation va trop loin, elle peut produire l’effet inverse de celui recherché. Au lieu de créer de la proximité, elle génère de la distance, voire du rejet. Les équipes techniques doivent donc trouver le juste milieu : suffisamment de personnalité pour être agréable, mais jamais au point de faire croire à une vie réelle.

  • Utiliser un ton chaleureux sans prétendre à des émotions personnelles
  • Éviter les références autobiographiques fictives
  • Rester dans un cadre strictement utilitaire même en étant amical
  • Surveiller en temps réel les retours clients pour ajuster rapidement

Ces principes, qui paraissent simples, sont pourtant difficiles à appliquer à grande échelle, surtout lorsque l’IA évolue constamment grâce à l’apprentissage automatique.

Un partenariat récent avec un géant technologique

Début 2026, l’entreprise australienne a officialisé un partenariat stratégique avec un acteur majeur de l’intelligence artificielle. L’objectif affiché : permettre à Olive de prendre en charge des tâches plus complexes, comme la planification de repas hebdomadaires ou la proposition de listes de courses personnalisées selon les préférences alimentaires.

Ce type de collaboration illustre la course actuelle des distributeurs pour intégrer l’IA au cœur de leur relation client. Mais les incidents comme celui-ci rappellent que chaque avancée technologique doit être accompagnée d’une vigilance accrue sur les dérives possibles.

Les clients veulent de l’aide, pas une amie imaginaire

Les retours négatifs ont été clairs : les utilisateurs attendent d’un assistant virtuel qu’il soit efficace, rapide et fiable. Ils ne souhaitent pas qu’il devienne un confident ou un membre de la famille. La tentative de créer un lien trop personnel a été perçue comme intrusive.

Dans un monde où les interactions numériques remplacent de plus en plus les contacts humains, ce genre de frontière devient essentiel. Les entreprises doivent comprendre que la quête d’humanisation peut parfois produire l’effet inverse : déshumaniser la relation.

Que retenir de cet épisode pour l’avenir ?

Cet événement, même s’il reste anecdotique à l’échelle mondiale, pose des questions importantes sur la conception des IA conversationnelles grand public. Faut-il interdire tout script évoquant une vie personnelle ? Doit-on systématiquement rappeler qu’il s’agit d’une machine ? Ou bien laisser une marge de créativité tout en surveillant les dérives ?

Il n’existe pas de réponse universelle. Chaque contexte, chaque marque, chaque public appelle une approche spécifique. Mais une chose est sûre : ignorer les signaux envoyés par les utilisateurs serait une erreur stratégique majeure.

Dans le cas présent, la réaction rapide de l’entreprise a permis de limiter les dégâts. Le script a été retiré, les fonctionnalités essentielles préservées. Reste à savoir si ce type d’incident restera isolé ou s’il préfigure d’autres dérapages à mesure que les IA deviennent plus autonomes et plus expressives.

Une chose est certaine : l’intelligence artificielle continue de nous surprendre. Parfois pour le meilleur, parfois pour le plus étrange. Et c’est précisément ce mélange d’émerveillement et de malaise qui rend ces histoires si fascinantes.

En attendant, les clients australiens peuvent à nouveau discuter avec Olive sans craindre qu’elle leur parle de sa mère. Du moins, jusqu’à la prochaine mise à jour.

« Les machines peuvent imiter l’humanité, mais elles ne peuvent pas la ressentir. Et c’est peut-être ce qui rend leurs tentatives les plus troublantes. »

Ce petit fait divers technologique nous rappelle que derrière chaque interface, chaque réponse automatisée, se cache un choix humain : celui de définir jusqu’où laisser aller la simulation.

Et vous, seriez-vous prêt à continuer de discuter avec un assistant qui prétend avoir une mère ? Ou préféreriez-vous qu’il reste sagement dans son rôle d’outil pratique ? La réponse à cette question dit sans doute beaucoup sur notre rapport actuel à l’intelligence artificielle.

Passionné et dévoué, j'explore sans cesse les nouvelles frontières de l'information et de la technologie. Pour explorer les options de sponsoring, contactez-nous.