Le danger de l’intelligence artificielle que nous apprendrons à mieux gérer

Les deepfakes sont d’une simplicité effrayante à créer. Mais cette technologie va créer une réalité de «faits alternatifs » Où “la vérité va mourir” ? Pas. Les deepfakes sont une technologie et des abus plus répandus sont attendus avec une plus grande disponibilité. Au fil du temps, nous adopterons une meilleure transparence, une meilleure détection et, plus important encore, chacun de nous, utilisateurs, deviendra plus conscient et donc mieux équipé pour lutter contre les abus de Deepfake.

Que sont les deepfakes ?

Les deepfakes sont un moyen de manipuler des images. La manipulation d’images n’est pas nouvelle. Staline a retiré Nikolai Yezhov de images fixes. Aujourd’hui, la technologie sous-jacente qui crée des deepfakes est l’intelligence artificielle (IA). La technologie deepfake soutenue par l’IA offre des capacités améliorées – mais augmente également l’échelle de manipulation et d’intervention par de mauvais acteurs. Commencer par des exemples évidents : Check this out TIC Tac compilation sur Tom Cruise. FAUX. Ou ca vidéo de Barack Obama qualifiant Trump de “connard total et complet”. Aussi, FAUX. La liste continue. Il était une fois un mème où Nicolas Cage est devenu le faux acteur principal dans plusieurs films différents (compilation vidéo). Aujourd’hui, n’importe qui peut créer un deepfake. Aucune compétence en programmation n’est requise. Si vous souhaitez en savoir plus sur la technologie derrière les deepfakes, consultez cet article de Forbes.

Les deepfakes sont largement utilisés aujourd’hui – et ils sont là pour rester. C’est l’IA et donc la même technologie qui aide à lire les émotions humaines (par exemple pour les personnes avec autisme) ou aide à identifier les obstacles sur la route (par exemple, un chasse au canard). Les deepfakes sont aussi utilisés à Hollywood : ne cherchez pas plus loin, Empire de la guerre des étoilesLa rajeunissement dans les films Marvelou la fin Paul Walker dans Fast and Furious 7. Les deepfakes ont le potentiel de remplacer le CGI haut de gamme, ce qui permettrait d’économiser des millions de dollars et d’innombrables heures de temps de traitement dans la production de films.

Mais alors les deepfakes peuvent être – et sont – abusés. Malheureusement, ce type d’abus technologique n’est pas nouveau. Dans mon livre de 2014″Demander Mesurer Apprendre” J’ai écrit: […] Lorsque le courrier électronique a soudainement permis de communiquer gratuitement avec un grand nombre d’inconnus, cela a immédiatement conduit au problème du courrier électronique commercial non sollicité, mieux connu sous le nom de spam. Lorsque les ordinateurs pouvaient communiquer ouvertement sur les réseaux, cela générait des virus et des chevaux de Troie. Et maintenant que nous vivons dans une société de réseaux sociaux et d’informations à la demande, ce monde a été inondé d’informations fausses, voire frauduleuses. Le spam s’est transformé en spam social. […]

Lors de la conférence Strata 2013 (vidéo), j’ai présenté les conversations de bot pilotées par l’IA de nouvelle génération et les moyens de les détecter. Notre technologie a évolué au cours de la dernière décennie, et en plus des faux e-mails, des fausses critiques d’Amazon et des faux chats de bot, nous avons maintenant affaire à des deepfakes. C’est assez irritant. Mais du bon côté, la manière de faire face à cette menace reste la même : détection, transparence, réglementation et éducation.

(1) Détection

De plus en plus de chercheurs étudient fausses nouvelles ou construire des technologies pour identifier les deepfakes. Les grandes entreprises technologiques comme Google, Microsoft et Meta ont ouvertement condamné la technologie deepfake et créent des outils pour la reconnaître. Microsoft crée une nouvelle technologie anti-deep-fake pour lutter contre la désinformation (Authentificateur vidéo Microsoft). Youtubepropriété de Google, a réitéré en février 2020 qu’il n’hébergerait pas de vidéos deepfake liées aux élections américaines, aux procédures de vote ou au recensement américain de 2020.

Avec plus de millions de dollars en prix, Meta’s défi du détecteur deepfake a encouragé les chercheurs et les développeurs à créer des algorithmes pour lutter contre les deepfakes. Le lancement du challenge intervient après le lancement d’un grand ensemble de données de deepfakes visuels produit en collaboration avec Jigsaw, l’incubateur technologique interne de Google. De plus, le vaste ensemble de données de deepfakes a été intégré dans un benchmark mis gratuitement à la disposition des chercheurs pour le développement de systèmes de détection vidéo synthétique.

Dans un monde en évolution rapide et une frénésie d’attention, la détection des deepfakes est encore plus importante. Cependant, nous sommes loin de distinguer le vrai contenu du faux. Certains des meilleurs outils disponibles Contre.social, trace profonde, Défenseur de la réalitéet sensibilité ai (qui prétend être le premier outil de détection de deepfake au monde). Pourtant, le meilleur détecteur de deepfake est encore juste 65% précis. Même Azure Cognitive Services était triché plus de 78% du temps.

L’avenir de ces détecteurs reflétera probablement les détecteurs de robots, les détecteurs de spam ou tout autre détecteur de cybermenaces. Chaque évolution déclenchera une contre-réaction. Ce sera une course aux armements, ou autrement dit : la future détection de deepfake ne sera aussi bonne que votre détecteur de spam par e-mail… et nous savons tous que nous recevons toujours du SPAM de princes nigérians dans nos boîtes de réception.

(2) Transparence

Les réseaux sociaux nous ont permis de nous connecter avec tout le monde. Cette nouvelle connexion signifie que chaque opinion marginale trouvera son public. Les mensonges et les fausses nouvelles sont devenus modèle d’affaires. Le chaos et la méfiance ont suivi. Pour inspirer confiance, les entreprises de médias sociaux ont créé des « comptes vérifiés » (par exemple, sur Twitter). Dans un monde d’abondance de deepfake, les comptes vérifiés seuls ne suffiront pas. Par exemple, même le compte vérifié “RealDonaldTrump” a tweeté un DeepFake de Pelosi, qui a été largement partagé et re-partagé. Pour éliminer les effets de second ordre des médias sociaux, un niveau de transparence différent est nécessaire.

Peut-être pouvons-nous établir la confiance si nous connaissons la source d’une certaine vidéo ? Une proposition de lutte contre les deepfakes indique l’utilisation de NFT (Non-Fungible Tokens) comme solution possible : si tout le monde chiffrait ses vidéos en NFT, il serait facile de trouver et de comparer différentes sources en même temps.

(3) Règlement

L’utilisation abusive des deepfakes sans identification claire doit être interdite – et les régulateurs du monde entier ont commencé à les prendre au sérieux. En 2019, il y avait environ un douzaine lois fédérales et étatiques pour réglementer les deepfakes. Ces lois vont de la criminalisation de l’utilisation de l’image d’une femme dans un film pornographique sans son consentement (Loi de Virginie), le bon usage des données d’une personne décédée (Loi new-yorkaise) et traitant des contrefaçons bon marché (escroqueries numériques low-tech qui ne nécessitent pas d’IA). Lorsque nous examinons comment les données personnelles sont utilisées et réalisons la valeur d’une identité numérique, il devient clair que la confidentialité est un pilier fondamental d’un environnement numérique sécurisé. Pour en savoir plus à ce sujet, consultez mon avis sur la confidentialité et les données.

(4) Éducation

Revenons au prince nigérian. Ceux coups commencent généralement par un e-mail. Les fraudeurs offrent une partie d’une vaste opportunité d’investissement, mais à leur tour, ils ont besoin d’argent de votre part. Il existe de nombreuses versions différentes de cette arnaque sur Internet, et revient sans cesse. Mais aujourd’hui, beaucoup ne tomberont plus dedans. Car? Parce que vous en avez tous entendu parler (sinon, vous venez de l’entendre ici). L’éducation est la meilleure protection. Et tout comme avec le prince nigérian, nous avons besoin du même degré d’éducation pour les deepfakes.

Dans ce but, Channel 4 au Royaume-Uni a créé un deepfake du discours de la reine à noël dernier. C’était hilarant et a introduit des deepfakes dans le débat public. Pour mon cours à Cornelloù j’enseigne aux candidats au MBA comment concevoir des produits qui utilisent les données et l’IA, nous commençons chaque trimestre par une vidéo d’une minute sommaire que Prithvi et moi avons créé pour accueillir les étudiants au cours. Oui, c’est amusant. Mais c’est aussi un rappel pour nous tous que la grande technologie peut être abusée.

PLUS DE FORBESAperçu de la façon de créer des Deepfakes – C’est terriblement simple

Cet article a été écrit avec Prithvi Sriram, qui non seulement était un étudiant du cours, mais a également aidé à créer des boîtes à outils que les futurs étudiants peuvent utiliser pour mettre la main sur Deep Learning. Il travaille actuellement chez Infinitus Systems, une start-up de soins de santé de série B, où il a été membre fondateur de l’équipe d’analyse.

Consultez cet article de Forbes si vous recherchez un aperçu des différentes boîtes à outils de Deep Learning pour les deepfakes.

Leave a Comment

Your email address will not be published.