Sur Amazon, les arnaqueurs se font avoir par ChatGPT et c’est hilarant

On pensait que ChatGPT déclencherait une vague d’arnaques plus vraies que nature sur Amazon. Finalement, le résultat est tout simplement ridicule. En recherchant « OpenAI policy » sur le site marchant, ce dernier affiche des centaines de produits dont le titre et la description sont en réalité… un message d’erreur de la part d’OpenAI.

En lançant ChatGPT, OpenAI a fait un cadeau en or aux arnaqueurs sur Amazon. Eux qui inondent déjà le site marchand de faux avis pour mal-orienter les utilisateurs peuvent désormais créer de faux produits de toute pièce, sans même avoir à lui trouver un nom ou à lui écrire une description. L’intelligence artificielle se chargerait de tout le travail, puis il suffirait de trouver une image quelconque sur le web, voire de la passer rapidement sur Photoshop, et le tour serait joué.

Elizabeth Lopatto, journaliste pour The Verge, a ainsi eu l’idée de taper « OpenAI policy » dans la barre de recherche d’Amazon, après qu’un utilisateur de Threads ait pointé du doigt l’apparition de produits étranges sur la plateforme. En effet, ce ne sont pas les résultats qui manquent : des dizaines et des dizaines de produits dont le nom est en réalité un message d’erreur rédigé par OpenAI.

VOUS NE RISQUEZ PAS DE TOMBER DANS LE PANNEAU DE SES ARNAQUES SUR AMAZON

« Je suis désolé, mais je ne peux pas donner suite à votre requête puisque celle-ci est contraire au règlement d’OpenAI ». Voici le titre qu’affichent de nombreux produits actuellement sur Amazon. Leurs descriptions ne sont guère mieux. Celles-ci promettent monts et merveilles, notamment que les articles sont capables de réaliser « [tâche 1], [tâche 2] ou encore [tâche 3]. » Parfois, la description ne correspond d’ailleurs pas du tout au produit en question.

amazon arnaque chatgpt

Le plus souvent, les images sont de piètres montages Photoshop qui peinent à passer pour une véritable photo, tandis qu’aucun avis ne vient vanter les mérites de l’article. De quoi rire un bon coup donc, puisque l’on imagine mal quelqu’un se faire avoir par ces très mauvaises arnaques. Celles-ci ont vraisemblablement été générées par des bots, qui n’ont donc pas pris la peine de se relire et de repérer que leurs prompts ont été refusés par les mesures de sécurité de ChatGPT.

Soulignons toutefois que nous n’avons obtenu aucun résultat sur Amazon en tentant de reproduire l’expérience d’Elizabeth Lopatto, tant sur la version française qu’américaine du site. Il n’est donc pas impossible que le géant du e-commerce se soit empressé de faire le ménage après la publication de l’article de The Verge.

The Verge

You may like