En 2024, les médias médiatiques et de la tech se mobilisent activement pour combattre la désinformation. Dans cet esprit, TikTok a adopté la norme Content Credentials de la C2PA, une initiative qui vise à permettre aux utilisateurs de distinguer plus facilement les contenus générés par intelligence artificielle.
Content Authenticity Initiative
Content Authenticity Initiative
Le Leica SL3 est le nouvel hybride plein format haut de gamme du constructeur allemand. Doté d’un capteur de 60 Mpx et capable de filmer en 8K, le boîtier ne manque pas d’arguments. Pourtant, à la grande surprise des professionnels, il ne prend pas en charge le dispositif de protection des images de la Content Authenticity Initiative (CAI), contrairement au Leica M11-P lancé quelques mois plus tôt.
Le CP+ 2024 nous a donné l'occasion d'interroger l'équipe dirigeante de Canon. Avec nous, ils détaillent sur la position de l'entreprise sur le marché, ainsi que sur (l'hypothétique) ouverture de la monture RF. Ils dévoilent également leur vision sur rôle de l'IA que ce soit pour le développement des appareils ou pour la création de fausses images. Enfin, ils reviennent sur le futur EOS R1, qui pourrait faire son apparition avant les JO de Paris.
Alors que 2024 est une année électorale record, les constructeurs d'appareils photo fourbissent leurs outils afin d'offrir une traçabilité des images. Alors que Leica a déjà dévoilé son M11-P doté d'une fonction de traçabilité des images, Sony et Nikon testent leurs technologies avec des agences de presse. Canon, de son côté, vient de rejoindre la coalition.
Comme à son habitude, Leica décline une nouvelle fois son appareil télémétrique plein format phare avec le M11-P. Ce nouveau modèle offre un look plus minimaliste, voit son stockage interne augmenté à 256 Go et gagne un obturateur toujours plus silencieux. Surtout, le M11-P devient le premier boîtier à intégrer la norme Content Authenticity Initiative assurant la traçabilité des images et empêchant toute falsification.
Même si les photos truquées ne datent pas d’hier, divers acteurs plaident pour une vérification de l’authenticité des images et le suivi des retouches, de la prise de vue à la diffusion en ligne. À la clé, une plus grande confiance dans les images qui circulent dans les médias et sur les réseaux sociaux. Décryptage.
Potentielle arme de désinformation massive, les deep fakes permettent de produire des vidéos falsifiées souvent plus vraies que nature grâce à l’intelligence artificielle. Entreprises et chercheurs d’universités développent des solutions innovantes pour détecter ce procédé qui prend de plus en plus d’ampleur sur le web et les réseaux sociaux.