En ce moment

Titre

Artiste

[qt-onairmini]

[qt-onairmini]


Les géants de la tech promettent à la Maison Blanche un marquage des contenus issus de l’IA

Écrit par le 21 juillet 2023


[ad_1]

Publié le 21 juil. 2023 à 19:08

Comment distinguer les fausses photos du pape en doudoune circulant sur les réseaux sociaux ou les devoirs scolaires rédigés entièrement par ChatGPT ?

De grandes entreprises à la pointe de l’intelligence artificielle montrent en tout cas leur bonne volonté, pour limiter les risques de désinformation, de fraudes ou tricheries.

Précisément, la Maison Blanche a annoncé que sept entreprises, des poids lourds du secteur – Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI (derrière ChatGPT) – ont accepté de respecter plusieurs principes dans le développement de l’intelligence artificielle (IA).

Elles doivent, en particulier, mettre en place « des techniques solides pour s’assurer que les utilisateurs savent quand des contenus ont été générés par de l’IA, comme un système de marquage en filigrane », indique un communiqué de l’administration américaine.

Règlement européen

Certes, les montages comme les « deepfakes » existent depuis longtemps, mais l’essor de l’IA générative laisse craindre un véritable déferlement de « faux » contenus pour des arnaques ou des manipulations de l’opinion. Une marque en filigrane concernerait à la fois les visuels, les textes mais aussi les contenus sonores.

De telles dispositions sont aussi prévues dans le projet de règlement européen sur l’IA qui devrait être adopté l’an prochain, obligeant à « identifier comme tel des contenus venant des IA génératives », rappelle Sonia Cissé, avocate chez Linklaters.

Mais les entreprises de l’IA ont cherché à prendre les devants. « L’étau se resserre : même s’il n’y a pas à ce stade de réglementation complète sur ce sujet aux Etats-Unis, il existe, au niveau mondial, une volonté de mieux encadrer l’IA. Les entreprises de l’IA n’ont pas vraiment d’autres choix que d’aller vers plus de transparence. Il s’agit aussi pour elles de communiquer sur leur bonne volonté », reprend l’avocate.

D’ores et déjà, plusieurs entreprises avaient annoncé travailler sur des technologies pour limiter les risques, à l’image de Google qui a dévoilé, en mai, des fonctionnalités pour détecter de « fausses » images. « Les grands du secteur s’étaient déjà préoccupés de ce sujet. Mais ce qui est nouveau c’est qu’ils acceptent clairement de coopérer avec les pouvoirs publics », souligne Julien Guinot-Deléry, avocat chez Gide.

Contournement

Reste à savoir aussi si le marquage sera suffisant. « A priori, ce n’est pas très compliqué techniquement, mais il faudra que le dispositif soit uniformisé, facile à identifier pour les utilisateurs et surtout suffisamment robuste pour ne pas être facilement contourné », reprend-il.

Quoi qu’il en soit, il semble compliqué de décourager tous les petits malins ou les acteurs malveillants de trouver des moyens d’utiliser l’IA à des fins illégales. Mais, par exemple, demain, un étudiant ne pourra plus faire un simple copié/collé de ChatGPT et… devra peut-être recopier.

Partage d’informations

Parallèlement, les entreprises de l’IA se sont engagées à tester leurs programmes informatiques en interne et en externe avant leur lancement, à investir dans la cybersécurité et à faire examiner leurs systèmes par des équipes extérieures, pour y déceler d’éventuelles failles, des risques de discrimination ou des risques pour les droits ou la santé. Elles ont promis de partager des informations avec les pouvoirs publics et les chercheurs. Là, aussi bon nombre de dispositions vont dans le même sens que la future réglementation européenne.

Ces engagements volontaires sont « un premier pas important » pour établir des garde-fous, a déclaré Nick Clegg chez Meta . Mais ils n’ont toutefois pas de caractère contraignant.

Des collaborateurs de la Maison-Blanche ont précisé à l’agence Bloomberg que c’était le résultat d’un intense lobbying en coulisses.

[ad_2]

Source link


Continuer la lecture