187 liens privés
L'Iran affirme que la reconnaissance faciale permettra d'identifier les femmes qui enfreignent les lois sur le hijab
Les femmes iraniennes dénudent leur tête pour protester contre les contrôles du gouvernement. Un haut responsable a déclaré que des algorithmes peuvent identifier toute personne enfreignant les codes vestimentaires.
Les experts en IA ne devraient pas s'offusquer lorsque les chercheurs en AGI se plaignent des insuffisances de l'apprentissage profond. Personne ne cherche vraiment à se débarrasser de l'apprentissage profond. S'il est vrai que l'avènement de l'intelligence artificielle rendra l'apprentissage profond obsolète dans certains domaines, nous pensons qu'il continuera probablement à être utile pour de nombreuses tâches d'automatisation, même après la résolution de l'intelligence artificielle. Mais, afin de progresser vers la résolution de l'AGI, les chercheurs doivent faire remarquer que le deep learning n'est pas seulement inadéquate pour résoudre l'AGI, elle est inutile. Et certains d'entre nous savent exactement pourquoi elle est inutile.
Note : AGI = Intelligence Artificielle Générale
pour corriger les images étranges générée par des IA...
Recommandations collaboratives de contenus
Tournesol est un projet de recherche participatif et transparent sur l'éthique des systèmes de recommandations.
Aidez-nous à faire avancer la recherche en donnant votre avis sur les vidéos que vous avez regardées pour identifier les vidéos d'utilité publique qui devraient être largement recommandées.
FAQ
Quels sont les outils dont je dispose sur ArtStation pour m'assurer que mes œuvres ne sont pas utilisées pour entraîner l'IA ?
ArtStation vient de publier une mise à jour de sa plate-forme et de ses conditions d'utilisation qui permet d'attribuer automatiquement une métabalise HTML "NoAI" aux projets marqués par "NoAI". Celle-ci interdira explicitement l'utilisation du contenu par les systèmes d'IA et marquera le projet pour qu'ils sachent qu'ils ne sont pas autorisés à l'utiliser.
Pour en savoir plus sur la mise à jour des conditions d'utilisation, cliquez ici et pour en savoir plus sur l'utilisation de la nouvelle balise NoAI, cliquez ici.
Pourquoi tous les projets ne sont-ils pas marqués par "NoAI" par défaut ? / Cela signifie-t-il que si je n'utilise pas ce tag, je l'autorise ?
Nous pensons que les artistes doivent être libres de décider de l'utilisation de leurs œuvres et, simultanément, nous ne voulons pas devenir un gardien avec des conditions de site qui étouffent la recherche et la commercialisation de l'IA lorsqu'elles respectent les choix des artistes et la loi sur le droit d'auteur.
Nous voulons donner aux artistes plus de contrôle sur leurs œuvres publiées. Si vous n'utilisez pas la balise, vous n'autorisez ni n'interdisez l'utilisation de votre projet pour l'IA. En choisissant de ne pas utiliser le tag, c'est la loi sur le droit d'auteur qui régit l'utilisation équitable ou non de l'œuvre. L'utilisation de l'IA et sa place dans la législation sur le droit d'auteur sont nouvelles et non réglées, ce qui laisse ouvertes de nombreuses questions sur l'applicabilité de la législation sur le droit d'auteur à l'utilisation d'œuvres dans l'IA. L'ajout de la balise "NoAI" vous permet de préciser que, quel que soit l'état de la législation sur le droit d'auteur, l'utilisation de votre œuvre dans l'IA n'est pas autorisée.
Le célèbre site de réponses aux questions des développeurs Stack Overflow a bloqué les réponses générées par ChatGPT indique The Verge. Les modérateurs ont expliqué que cette décision était temporaire et qu’ils allaient organiser une discussion avec la communauté du site pour prendre une décision définitive.
Leur point de vue est que ChatGPT permet de publier rapidement beaucoup de réponses pouvant sembler correctes au premier coup d’œil, mais souvent fausses. C’est d’ailleurs tout le problème de ce chat bot qui arrive facilement à imiter une discussion sur n’importe quel sujet avec des réponses plausibles, mais n’est pas capable d’évaluer si elles sont correctes.
Dans cet article, nous approfondissons nos recherches précédentes sur le potentiel d'abus des modèles génératifs de langage en évaluant GPT-3. En expérimentant avec des invites représentatives de différents types de récits extrémistes, de structures d'interaction sociale et d'idéologies radicales, nous constatons que GPT-3 démontre une amélioration significative par rapport à son prédécesseur, GPT-2, dans la génération de textes extrémistes. Nous montrons également la force de GPT-3 dans la génération de textes qui émulent avec précision le contenu interactif, informationnel et influent qui pourrait être utilisé pour radicaliser les individus vers des idéologies et des comportements violents d'extrême droite. Bien que les mesures préventives d'OpenAI soient solides, la possibilité d'une technologie copiée non réglementée représente un risque important pour la radicalisation et le recrutement en ligne à grande échelle ; ainsi, en l'absence de mesures de protection, une militarisation réussie et efficace nécessitant peu d'expérimentation est probable. Les acteurs de l'IA, la communauté des décideurs et les gouvernements devraient commencer à investir dès que possible dans l'élaboration de normes sociales, de politiques publiques et d'initiatives éducatives afin de prévenir un afflux de désinformation et de propagande générées par des machines. Les mesures d'atténuation nécessiteront des politiques et des partenariats efficaces entre l'industrie, le gouvernement et la société civile.
https://pollinations.ai/prompt/<ma requete ici>