Une vidéo présentée comme une publicité officielle de OpenAI a récemment enflammé Internet, quelques jours avant le Super Bowl. Elle mettait en scène un mystérieux appareil présenté comme le « premier hardware ChatGPT », conçu avec le célèbre designer Jony Ive. Très vite partagée sur les réseaux sociaux, la séquence s’est révélée être une supercherie soigneusement orchestrée.
La vidéo montrait l’acteur Alexander Skarsgård manipulant un objet futuriste, accompagné d’écouteurs, censé incarner le premier appareil physique d’OpenAI. L’ensemble, au ton très cinématographique, laissait penser à une publicité haut de gamme prête à être diffusée lors d’un événement majeur.
Pour renforcer l’illusion, la vidéo a été publiée sur Reddit par un internaute affirmant travailler chez OpenAI. Il expliquait que la publicité aurait été annulée à la dernière minute, ce qui l’aurait poussé à la partager de manière « officieuse ».
Rapidement, plusieurs éléments ont semé le doute. Le profil de l’auteur de la publication révélait des incohérences flagrantes : quelques mois plus tôt, il se présentait comme comptable indépendant, sans aucun lien avec le secteur de l’IA ou de la communication. Malgré cela, la rumeur d’une « fuite interne » a pris de l’ampleur, alimentée par des captures d’écran relayées massivement sur X, Reddit et d’autres plateformes.
L’affaire a pris une autre dimension lorsqu’un informateur reconnu, Max Weinbach, a indiqué avoir reçu une proposition financière pour relayer la vidéo. Selon lui, une entité inconnue était prête à payer plus de 1 100 dollars pour amplifier la diffusion de cette fausse publicité. Un faux site web, imitant des médias technologiques, a même été créé pour crédibiliser l’histoire d’une publicité OpenAI « annulée ».
Face à l’ampleur de la rumeur, OpenAI a fini par réagir. Greg Brockman, président de l’entreprise, a publiquement démenti l’authenticité de la vidéo, la qualifiant sans détour de « fake news ». Tout indique que la séquence a été générée ou largement assistée par intelligence artificielle, dans le but de tromper les internautes.
Cet épisode illustre la facilité avec laquelle des contenus fictifs, mais très réalistes, peuvent se propager en ligne. À l’heure où l’IA permet de produire des vidéos toujours plus convaincantes, la frontière entre information, marketing et manipulation devient de plus en plus floue. Une raison de plus pour redoubler de vigilance face aux « annonces » spectaculaires qui circulent sur Internet.
La vidéo montrait l’acteur Alexander Skarsgård manipulant un objet futuriste, accompagné d’écouteurs, censé incarner le premier appareil physique d’OpenAI. L’ensemble, au ton très cinématographique, laissait penser à une publicité haut de gamme prête à être diffusée lors d’un événement majeur.
Pour renforcer l’illusion, la vidéo a été publiée sur Reddit par un internaute affirmant travailler chez OpenAI. Il expliquait que la publicité aurait été annulée à la dernière minute, ce qui l’aurait poussé à la partager de manière « officieuse ».
Rapidement, plusieurs éléments ont semé le doute. Le profil de l’auteur de la publication révélait des incohérences flagrantes : quelques mois plus tôt, il se présentait comme comptable indépendant, sans aucun lien avec le secteur de l’IA ou de la communication. Malgré cela, la rumeur d’une « fuite interne » a pris de l’ampleur, alimentée par des captures d’écran relayées massivement sur X, Reddit et d’autres plateformes.
L’affaire a pris une autre dimension lorsqu’un informateur reconnu, Max Weinbach, a indiqué avoir reçu une proposition financière pour relayer la vidéo. Selon lui, une entité inconnue était prête à payer plus de 1 100 dollars pour amplifier la diffusion de cette fausse publicité. Un faux site web, imitant des médias technologiques, a même été créé pour crédibiliser l’histoire d’une publicité OpenAI « annulée ».
Face à l’ampleur de la rumeur, OpenAI a fini par réagir. Greg Brockman, président de l’entreprise, a publiquement démenti l’authenticité de la vidéo, la qualifiant sans détour de « fake news ». Tout indique que la séquence a été générée ou largement assistée par intelligence artificielle, dans le but de tromper les internautes.
Cet épisode illustre la facilité avec laquelle des contenus fictifs, mais très réalistes, peuvent se propager en ligne. À l’heure où l’IA permet de produire des vidéos toujours plus convaincantes, la frontière entre information, marketing et manipulation devient de plus en plus floue. Une raison de plus pour redoubler de vigilance face aux « annonces » spectaculaires qui circulent sur Internet.



Technologies




IA : Bruxelles accentue la pression sur Meta pour libérer l’accès à WhatsApp




