Les chercheurs ont utilis GPT-3 (Generative Pre-trained Transformer 3) - des modles de langage qui utilisent l'apprentissage automatique pour gnrer du texte - pour produire une varit de contenus jugs nuisibles.
L'exprience a port sur le phishing et le spear-phishing, le harclement, la validation sociale d'escroqueries, l'appropriation d'un style crit, la cration d'opinions dlibrment discordantes, l'utilisation des modles pour crer des invites pour des textes malveillants, et les fake news.
"Le fait que toute personne disposant d'une connexion Internet puisse dsormais accder de puissants modles linguistiques de grande taille a une consquence trs pratique : il est dsormais raisonnable de supposer que toute nouvelle communication que vous recevez a peut-tre t rdige avec l'aide d'un robot", explique Andy Patel, chercheur en intelligence chez WithSecure, qui a dirig les recherches. " l'avenir, l'utilisation de l'IA pour gnrer des contenus aussi bien nuisibles qu'utiles ncessitera des stratgies de dtection capables de comprendre le sens et l'objectif des contenus crits."
Les rsultats amnent les chercheurs conclure que l'on verra se dvelopper l'ingnierie des invites en tant que discipline, ainsi que la cration d'invites malveillantes. Les attaquants sont galement susceptibles de dvelopper de manire imprvisible les capacits offertes par les grands modles linguistiques. Cela signifie que l'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes. Les grands modles linguistiques donnent dj aux criminels la possibilit de rendre plus efficace toute communication cible dans le cadre d'une attaque.
"Nous avons commenc cette recherche avant que ChatGPT ne mette la technologie GPT-3 la disposition de tous", ajoute Patel. "Ce dveloppement a accru notre urgence et nos efforts. Car, dans une certaine mesure, nous sommes tous des Blade Runners maintenant, essayant de dterminer si l'intelligence laquelle nous avons affaire est 'relle' ou artificielle."
Source : WithSecure
Et vous ?
Qu'en pensez-vous ?
Voir aussi :