L’IA générative remplit le Web à un rythme rapide et, même si nous évaluons les conséquences sur l’éducation, l’énergie et la créativité humaine, il est beaucoup plus difficile de faire confiance à tout ce qui apparaît en ligne. Est-ce réel ou est-ce généré par l’IA ?
Pour le moment, nous ne disposons pas d’un moyen fiable à 100 % de détecter le contenu de l’IA à chaque fois, mais il existe des signes révélateurs de texte, d’audio, d’images et de vidéos générés par ordinateur qui méritent d’être surveillés. Ajoutez un peu d’intelligence humaine et il est généralement possible de savoir quand il y a de fortes chances que quelque chose soit généré par l’IA.
Ici, nous allons nous concentrer sur la vidéo générée par l’IA, produite par des outils tels que Sora d’OpenAI, et nous avons également inclus quelques exemples. La prochaine fois que vous tomberez sur une vidéo dont vous n'êtes pas sûr, voyez comment elle se compare à ces critères.
Mauvais texte
Vous remarquerez qu’il manque du texte dans de nombreuses vidéos (et images) d’IA. L’IA générative ne parvient pas vraiment à bien rédiger des textes, car elle ne comprend ni les lettres ni le langage, du moins pas comme le font les humains. Les signes de l’IA semblent souvent écrits dans une langue étrangère, alors faites attention aux textes tronqués, ou à l’absence de texte du tout.
Cela ne veut pas dire qu’un bon texte n’apparaîtra pas dans les vidéos IA, mais si c’est le cas, il aura probablement été ajouté par la suite. Danscette bande-annonce de Monster Camp(intégré ci-dessous) généré par Luma AI, une partie de la signalisation semble correcte (et a très probablement été ajoutée manuellement) : vérifiez le lettrage sur le bus et les stands de la foire pour du charabia. Vous devrez regarder attentivement, car le texte étrange n’est pas visible longtemps.
Coupes rapides (ou lentes)
Cela nous amène à une autre caractéristique de la vidéo générée par l’IA : vous remarquerez souvent que les coupes sont très courtes et que l’action se déroule très rapidement. Il s’agit en partie de masquer les incohérences et les inexactitudes dans les vidéos qui vous sont présentées. L’idée est de vous donner l’impression de quelque chose de réel, plutôt que de la réalité elle-même.
En revanche, et pour contredire ce que nous venons de dire, il arrive parfois que l'action soit complètement ralentie. Cependant, l’objectif final est le même : empêcher que les coutures n’apparaissent à la limite des capacités de l’IA.
Dansce clip vidéo généré par l'IA(intégré ci-dessous) de Washed Out, c'est le premier : tout est rapide et rapide et disparaît avant que vous puissiez y jeter un coup d'œil approprié. Essayez de mettre la vidéo en pause à différents moments pour voir à quel point vous pouvez repérer les bizarreries (nous avons remarqué au moins une personne se fondant dans un mur).
Mauvaise physique
L'IA générative sait comment mélanger des pixels en mouvement pour montrer quelque chose qui ressemble à un chat, une ville ou un château. Elle ne comprend cependant pas le monde, l'espace 3D ou les lois de la physique. Les gens disparaîtront derrière les bâtiments ou auront un aspect différent d’une scène à l’autre, les bâtiments seront construits de manière étrange, les meubles ne seront pas correctement alignés, etc.
Considérerce tir de drone(intégré ci-dessous) créé par Sora d'OpenAI. Gardez un œil sur le groupe de personnes marchant vers le bas de la scène dans le coin inférieur gauche : ils s'absorbent tous et finissent par se fondre dans les balustrades car l'IA les voit comme des pixels plutôt que comme des personnes.
L'étrange vallée
La vidéo IA a souvent un éclat qui ne semble pas naturel, et nous connaissons déjà l’expression « vallée étrange » lorsqu’il s’agit de graphiques générés par ordinateur qui tentent de reproduire ce qui est réel et naturel. Vous visiterez souvent l’étrange vallée en regardant des vidéos d’IA, même si ce n’est que pour de brefs instants.
Si vous jetez un oeil àle film de marqueréalisé par Toys R Us avec l'aide de Sora AI, vous verrez le sourire et les mouvements de cheveux du jeune enfant paraître étrangement contre nature. Il ressemble également à un enfant différent d’une scène à l’autre, car ce n’est pas un acteur : c’est une représentation 2D générée basée sur ce à quoi l’IA pense qu’un garçon devrait probablement ressembler.
Éléments parfaits (ou imparfaits)
C’est un autre cas où il y a une sorte de contradiction, car les vidéos d’IA peuvent être trahies par des éléments trop parfaits ou pas assez parfaits. Après tout, ces clips sont générés par des ordinateurs, de sorte que les dessins sur les bâtiments, les véhicules ou les matériaux peuvent être répétés encore et encore, selon des motifs trop parfaits pour exister dans la vie réelle.
D’un autre côté, l’IA continue de lutter contre tout ce qui est naturel, qu’il s’agisse d’une main, d’un menton ou de feuilles soufflées par la brise. Danscette vidéodepuis Runway AI d'un astronaute en cours d'exécution, vous remarquerez que les mains sont en désordre (ainsi qu'une grande partie de la physique de fond est erronée et que le texte est taché).
Vérifiez le contexte
Vous disposez alors de tous les outils dont nous disposions déjà pour identifier la désinformation : même avant l’IA générative, il existait Photoshop, donc certaines des règles pour détecter les contrefaçons restent les mêmes.
Le contexte est essentiel : si une vidéo provient du compte de réseau social officiel du New York Times, elle est probablement digne de confiance. S’il est transmis par une personne sans visage sur X avec beaucoup de chiffres dans son nom d’utilisateur, peut-être moins.
Lecture recommandée :Comment réparer les points blancs sur l'écran de l'iPhone de 9 manières
Vérifiez si l’action dans la vidéo a été capturée sous d’autres angles, ou a été largement rapportée ailleurs, ou si elle a réellement un sens. Vous pouvez également vérifier auprès des personnes présentées dans la vidéo : s'il y a une narration de Morgan Freeman en arrière-plan, Morgan Freeman pourra la vérifier.d'une manière ou d'une autre.
