187 liens privés
Dans cet article, nous approfondissons nos recherches précédentes sur le potentiel d'abus des modèles génératifs de langage en évaluant GPT-3. En expérimentant avec des invites représentatives de différents types de récits extrémistes, de structures d'interaction sociale et d'idéologies radicales, nous constatons que GPT-3 démontre une amélioration significative par rapport à son prédécesseur, GPT-2, dans la génération de textes extrémistes. Nous montrons également la force de GPT-3 dans la génération de textes qui émulent avec précision le contenu interactif, informationnel et influent qui pourrait être utilisé pour radicaliser les individus vers des idéologies et des comportements violents d'extrême droite. Bien que les mesures préventives d'OpenAI soient solides, la possibilité d'une technologie copiée non réglementée représente un risque important pour la radicalisation et le recrutement en ligne à grande échelle ; ainsi, en l'absence de mesures de protection, une militarisation réussie et efficace nécessitant peu d'expérimentation est probable. Les acteurs de l'IA, la communauté des décideurs et les gouvernements devraient commencer à investir dès que possible dans l'élaboration de normes sociales, de politiques publiques et d'initiatives éducatives afin de prévenir un afflux de désinformation et de propagande générées par des machines. Les mesures d'atténuation nécessiteront des politiques et des partenariats efficaces entre l'industrie, le gouvernement et la société civile.