Comment savoir si une photo

ventre plat

Vous avez peut-être vu des photos suggérant le contraire, mais l’ancien président Donald Trump n’a pas été arrêté la semaine dernière et le pape ne portait pas de veste de costume blanche élégante et brillante. Ces récents succès viraux sont le fruit de systèmes d’intelligence artificielle qui traitent les invites textuelles de l’utilisateur pour générer des images. Ils montrent comment ces programmes sont devenus très bons très rapidement – ​​et sont maintenant suffisamment convaincants pour tromper l’observateur non initié.

Alors, comment les téléspectateurs sceptiques peuvent-ils repérer des images qui peuvent avoir été produites par un système d’IA comme DALL-E, Midjourney ou Stable Diffusion ? Chaque générateur d’image AI – et chaque image de n’importe quel générateur – varie dans sa capacité à être convaincante et dans les signes révélateurs que son algorithme pourrait révéler. Par exemple, les systèmes d’IA ont toujours eu du mal à imiter les mains humaines, produisant des entrées confuses avec trop de chiffres. Cependant, à mesure que la technologie s’améliore, des systèmes comme le Midjourney V5 semblent avoir résolu le problème – du moins dans certains exemples. Dans l’ensemble, les experts disent que les meilleures images des meilleurs créateurs sont difficiles, voire impossibles, à distinguer des images réelles.

« C’est assez incroyable en ce qui concerne les générateurs d’images IA », déclare S. Shyam Sundar, chercheur à l’Université d’État de Pennsylvanie qui étudie les effets psychologiques des technologies médiatiques. « L’année dernière, il y a eu un énorme bond en avant dans la capacité à créer des images. »

Certains des facteurs à l’origine de ce saut incluent la quantité toujours croissante d’images disponibles pour former de tels systèmes d’IA, ainsi que les progrès de l’infrastructure informatique et des interfaces qui rendent la technologie accessible aux utilisateurs ordinaires d’Internet, note Sundar. Le résultat est que les images créées artificiellement sont partout et peuvent être « presque impossibles à détecter », dit-il.

Une expérience récente a mis en évidence à quel point l’IA peut tromper. Sophie Nightingale, psychologue à l’Université de Lancaster en Angleterre qui se concentre sur la technologie numérique, a participé à une étude qui a testé si les volontaires en ligne pouvaient distinguer les portraits de type passeport créés par un système d’intelligence artificielle appelé StyleGAN2 des vrais. Les résultats étaient décourageants, même en 2021 lorsque les chercheurs ont mené l’expérience. « En moyenne, les gens étaient assez aléatoires », dit Nightingale. « En gros, nous en sommes au point où c’est tellement réaliste que les gens ne peuvent pas faire la différence de manière fiable entre un visage synthétique et un vrai, vrai visage – de vrais visages humains qui existent réellement. » Même si les humains ont aidé l’IA (les chercheurs ont trié les images générées par StyleGAN2 pour ne sélectionner que les plus réalistes), Nightingale affirme que quelqu’un ayant l’intention d’utiliser un tel programme à des fins néfastes ferait probablement de même.

Dans un autre test, les chercheurs ont tenté d’aider les sujets testés à améliorer leur capacité à détecter l’IA. Ils ont marqué chaque réponse comme correcte ou incorrecte après que les participants aient répondu, et ils ont également préparé les participants à l’avance en lisant des instructions sur la façon de percevoir les images créées artificiellement. Ce conseil a mis en évidence les domaines où les algorithmes d’IA trébuchent souvent, créant des choses comme des boucles d’oreilles dépareillées ou brouillant les dents d’une personne. Nightingale souligne également que les algorithmes ont souvent du mal à créer quelque chose de plus sophistiqué qu’un simple arrière-plan. Mais même avec ces ajouts, la précision des participants n’a augmenté que d’environ 10%, dit-il – et le système d’IA qui a généré les images utilisées dans l’expérience a depuis été mis à jour vers une nouvelle version améliorée.

Ironiquement, à mesure que la technologie d’imagerie continue de progresser, la meilleure défense des humains contre la tromperie d’un système d’IA pourrait être un autre système d’IA : un système formé pour détecter des images artificielles. Les experts disent qu’à mesure que la création d’images IA progresse, les algorithmes sont mieux équipés que les humains pour détecter certaines des minuscules empreintes digitales de la taille d’un pixel de la création de robots.

La création de ces programmes d’IA fonctionne comme n’importe quelle autre tâche d’apprentissage automatique, explique l’informaticien Yong Jae Lee de l’Université du Wisconsin-Madison. « Vous collectez un ensemble de données d’images réelles et vous collectez également un ensemble de données d’images générées par l’IA », explique Lee. « Ensuite, vous pouvez former un modèle d’apprentissage automatique pour faire la distinction entre les deux. »

Cependant, ces systèmes présentent des défauts importants, selon Lee et d’autres experts. La plupart de ces algorithmes sont formés sur des images d’un générateur d’IA spécifique et ne peuvent pas identifier les faux produits par différents algorithmes. (Lee dit que lui et l’équipe de recherche travaillent sur un moyen d’éviter ce problème en entraînant le détecteur à identifier à la place ce qui rend l’image réel.) La plupart des détecteurs manquent également des interfaces conviviales qui ont attiré tant de personnes à expérimenter des systèmes d’IA génératifs.

De plus, les détecteurs d’IA essaient constamment de suivre les générateurs d’images d’IA, dont certains incluent des algorithmes de détection similaires, mais les utilisent comme un moyen d’apprendre à rendre leur fausse sortie moins détectable. « La bataille entre les systèmes d’IA qui créent des images et les systèmes d’IA qui perçoivent les images générées par l’IA va être une course aux armements », déclare Wael AbdAlmageed, professeur adjoint d’informatique à l’Université de Californie du Sud. « Je ne vois aucune équipe gagner de si tôt. »

AbdAlmageed dit qu’aucune approche ne pourra jamais capturer toutes les images générées artificiellement – mais cela ne signifie pas que nous devrions abandonner. Il suggère que les plateformes de médias sociaux doivent commencer à confronter le contenu généré par l’IA sur leurs sites, car ces entreprises sont mieux équipées pour mettre en œuvre des algorithmes d’identification que les utilisateurs individuels.

Les utilisateurs doivent évaluer les informations visuelles avec plus de scepticisme en se demandant s’il s’agit de fausses informations, d’intelligence artificielle ou malveillantes avant de les partager. « En tant qu’espèce humaine, nous grandissons en pensant que voir, c’est croire », déclare AbdAlmageed. « Ce n’est plus vrai. Voir n’est plus croire. »

Custom Keto Diet

The post Comment savoir si une photo appeared first on Sirius News.


https://ift.tt/NO03sXU

Commentaires

Posts les plus consultés de ce blog

Fox News continue sur le câble

LSU-j’ai reçu des coups de poing

Un homme de Los Angeles qui