240 liens privés
- Opposition entre occident et orient => la philosophie de l'accumulation et la méditation pour vider son esprit
- L'IA est un robot, le robot remplace l'humain pour des taches inutiles... => donc tout ce qui accumule.... pas encore l'intuition
- La preuve par l'examen ne vaut plus rien. La preuve par le travail vaut mieux pour se faire embaucher, le porfolio. => les prêts étudiants aux USA ne sont plus rentable. Fin de ce système.
- lapreuve de l'examen ne garanti pas non plus la preuve par la vie. La sagesse. Il n'y a qu'à voir les QI des dirigeants Nazi au procès de Nuremberg.
- plus facile d'apprendre en demandant à une IA un programme d'apprentissage avec des questions. que d'avoir des profs.
- Les moines copiste ont perdu leur jobs avec l'imprimerie, mais les moines ont pas disparu. Ils font autre chose... => l'humain doit faire autre chose. (poser les questions ??)
- En math Gödel a cassé le fait que les maths sont une logique cohérente.
- Socrate, Platon, Aristote et son Lycée sont automatisable. Diogène ne l'est pas.
- Le temps de travail dans la légion romaine c'est 25 ans (sous trajan) donc citoyen. => en France on est à 15 ans pour l'école de la république. => on se demande si ce temps d'attention est bien investi ?
- dans l'armée, les amateurs parlent de stratégie, les professionnels de logistique. (Napoléon était un logisticien)
- just in time, c'est le concept logistique de toyota.. et les reste.. tout en flux tendu. Pour la connaissance on ne pratique pas ainsi. On apprend en masse des trucs pas utile.. et un jour quand on en a besoin on se souvient plus. Il y a des pédagogies qui font ça autrement. Plutôt du genre atelier. => j'ai besoin de quoi pour faire ce que je dois faire là tout de suite.... ça ancre mieux les connaissance. (c'est le concept de la pédagogie par compétence qu'on a pour les nouveaux CFC en Suisse !) On est ici dans le just in time de la connaissance.
- Le papillon de Tchouang tseu => c'est pas un moyen de questionner son identité, c'est une fable pour dire qu'il ne faut pas se fier à son esprit ! que ça ne fait pas tout ! La logique a des failles. (voir gödel). (C'est comme ma maxime "garde la mesure" ça permet de limiter la récursivité des ce genre de raisonnement de masturbation intellectuelle)
Les connexions entre les neurones peuvent être cartographiées par l'acquisition et l'analyse d'images cérébrales au microscope électronique (ME). Ces dernières années, cette approche a été appliquée à des morceaux de cerveau pour reconstruire des cartes de connectivité locale qui sont très informatives, mais inadéquates pour comprendre le fonctionnement du cerveau de manière plus globale.
Nous présentons ici le premier schéma de câblage neuronal d'un cerveau adulte entier, contenant 5×107 synapses chimiques entre ~130 000 neurones reconstruits à partir d'une Drosophila melanogaster femelle.
La ressource comprend également des annotations sur les classes et les types de cellules, les nerfs, les hémilignages et des prédictions sur l'identité des neurotransmetteurs. Les produits de données sont disponibles par téléchargement, accès programmatique et navigation interactive et sont interopérables avec d'autres ressources de données sur les mouches. Nous montrons comment dériver un projectome, une carte des projections entre régions, à partir du connectome. Nous démontrons le traçage des voies synaptiques et l'analyse du flux d'informations des entrées (neurones sensoriels et ascendants) vers les sorties (neurones moteurs, endocriniens et descendants), à travers les deux hémisphères, et entre le cerveau central et les lobes optiques. Le fait de remonter d'un sous-ensemble de photorécepteurs jusqu'aux voies motrices descendantes illustre la manière dont la structure peut mettre en évidence des mécanismes de circuit putatifs sous-jacents aux comportements sensorimoteurs. Les technologies et l'écosystème ouvert du consortium FlyWire ouvrent la voie à de futurs projets de connectome à grande échelle chez d'autres espèces.
L'IA maîtrise la diplomatie
Le jeu de diplomatie constitue un défi majeur pour l'intelligence artificielle (IA). Contrairement à d'autres jeux compétitifs que l'IA a récemment maîtrisés, tels que les échecs, le go et le poker, le jeu de diplomatie ne peut pas être résolu uniquement par le jeu personnel ; il nécessite le développement d'un agent capable de comprendre les motivations et les perspectives des autres joueurs et d'utiliser le langage naturel pour négocier des plans partagés complexes.
L'équipe Diplomatie de Meta Fundamental AI Research (FAIR) et al. a mis au point un agent capable de jouer la forme complète du jeu en langage naturel et de réaliser des performances bien supérieures à la moyenne humaine dans une ligue de diplomatie en ligne. Le présent travail a des implications considérables pour le développement de l'IA coopérative et des modèles de langage pour la communication avec les personnes, même lorsque les interactions impliquent un mélange d'intérêts alignés et concurrents. -YS
Résumé
Malgré les progrès considérables réalisés dans l'entraînement des systèmes d'intelligence artificielle (IA) à imiter le langage humain, la construction d'agents qui utilisent le langage pour communiquer intentionnellement avec des humains dans des environnements interactifs reste un défi majeur.
Nous présentons Cicero, le premier agent d'intelligence artificielle à atteindre des performances de niveau humain dans Diplomacy, un jeu de stratégie impliquant à la fois la coopération et la compétition qui met l'accent sur la négociation en langage naturel et la coordination tactique entre sept joueurs.
Cicero intègre un modèle de langage avec des algorithmes de planification et d'apprentissage par renforcement en déduisant les croyances et les intentions des joueurs à partir de ses conversations et en générant des dialogues dans la poursuite de ses plans. Au cours de 40 parties d'une ligue anonyme de diplomatie en ligne, Cicero a obtenu plus du double du score moyen des joueurs humains et s'est classé dans les 10 % supérieurs des participants qui ont joué plus d'une partie.
Article complet:
https://noambrown.github.io/papers/22-Science-Diplomacy-TR.pdf
Avec Droxy, transformez n'importe quel contenu en un chatbot IA engageant. Idéal pour améliorer le partage des connaissances dans le domaine de l'éducation, de l'entreprise et au-delà.
Possible de le connecter sur discord
Rencontrez des IA qui se sentent vivantes. Discutez avec n'importe qui, n'importe où, n'importe quand. Découvrez la puissance des chatbots super intelligents qui vous entendent, vous comprennent et se souviennent de vous.
Des recherches récentes ont suggéré qu'il existe différences évidentes entre le langage utilisé sur le Dark Web par rapport à celui du Surface Web.
Comme les études sur le Dark Web requièrent généralement une analyse textuelle du domaine, le langage utilisé dans le Dark Web n'est pas toujours le même.
Les modèles de langage spécifiques au Dark Web peuvent aux chercheurs des informations précieuses.
Dans ce travail,
nous présentons DarkBERT, un modèle de langage
de langage pré-entraîné sur les données du Dark Web.
Nous décrivons les étapes suivies pour filtrer et compiler les données textuelles
texte utilisées pour entraîner DarkBERT afin de lutter contre l'extrême diversité lexicale et structurelle du Dark Web qui peut être préjudiciable à la construction d'une représentation correcte du domaine.
Nous évaluons DarkBERT et son homologue "vanilla" ainsi que d'autres modèle de langage largement utilisés pour valider les avantages qu'un modèle spécifique au Dark Web offre dans divers cas d'utilisation.
Nos évaluations montrent que DarkBERT surpasse les modèles de langage actuels et qu'il peut servir de modèle de référence pour les recherches futures sur le Dark Web.
Avis de Perplexity.ai sur DarkGPT
DarkGPT est un prétendu moteur de recherche alimenté par l'intelligence artificielle, qui serait spécialisé dans la génération de théories du complot et d'informations controversées. Voici les principales caractéristiques attribuées à DarkGPT :
-
Origine et accès
- Il aurait été créé en 2023 par une collaboration clandestine entre programmeurs, chercheurs et théoriciens du complot[1].
- Son accès se ferait généralement via le dark web, nécessitant l'utilisation de navigateurs spécialisés comme Tor pour garantir l'anonymat[1].
-
Fonctionnement
- Il utiliserait des algorithmes d'IA sophistiqués pour analyser et interpréter des données souvent négligées ou supprimées par les plateformes grand public[1].
- Il serait capable de générer des théories alternatives et controversées sur divers sujets[1].
-
Contenu généré
- DarkGPT produirait des théories du complot sur des événements majeurs, comme la mission Apollo 11 ou la mort de célébrités[1].
- Il remettrait en question les versions officielles de l'histoire en proposant des interprétations alternatives basées sur des détails prétendument suspects[1].
-
Controverse
- Il est important de noter que l'existence réelle de DarkGPT n'est pas confirmée. Il pourrait s'agir d'une rumeur ou d'une invention pour alimenter la fascination autour des théories du complot.
- Les informations générées par un tel système, si elles existaient, seraient hautement spéculatives et non vérifiées.
Il est crucial de faire preuve d'esprit critique face à ce type d'informations et de toujours vérifier la fiabilité des sources.
Citations:
[1] https://vision-ia.tech/dark-gpt-mission-apollo-11-une-mise-en-scene/
[2] https://www.bfmtv.com/tech/intelligence-artificielle/dark-bert-a-quoi-peut-servir-le-chat-gpt-du-dark-web_AV-202306260605.html
[3] https://www.youtube.com/watch?v=sEsbfA09ctM
[4] https://www.youtube.com/watch?v=AYcrbgGiDqk
[5] https://www.youtube.com/watch?v=BXswCQKkje8
[6] https://www.youtube.com/watch?v=9IX1bjgvuog
[7] https://www.youtube.com/watch?v=Q6XGS8xVlMM
[8] https://www.dark-gpt.ai
Avis de l'IA Grok à propos de DarkGPT
DarkGPT fait référence à plusieurs concepts ou projets liés à l'intelligence artificielle (IA), en particulier dans le domaine de l'analyse des données du web sombre (dark web) et de l'optimisation de l'intelligence (OSINT). Voici un aperçu basé sur les informations disponibles jusqu'à octobre 2024:
-
OSINT Assistant: DarkGPT est souvent mentionné comme un assistant basé sur le modèle de langage GPT-4-200K, spécialement conçu pour effectuer des requêtes sur des bases de données fuitées ou sur le dark web. Son objectif est d'assister dans les processus traditionnels d'OSINT (Open Source INTelligence), en fournissant une IA capable de naviguer et d'analyser des informations non indexées par les moteurs de recherche conventionnels.
-
Un AI Sans Filtre: Il y a des discussions autour d'une version de DarkGPT qui pourrait être considérée comme une version "non censure" ou "non filtrée" de chatbots comme ChatGPT, où l'IA est censée répondre à n'importe quelle question sans restrictions, offrant une vérité brute ou des informations sans les filtres habituellement appliqués pour des raisons éthiques ou de contenu.
-
Formation sur le Dark Web: Certains posts et articles mentionnent que DarkGPT ou des modèles similaires comme DarkBERT ont été entrainés avec des données provenant du dark web. Ceci pourrait inclure des données de hackers, de criminels cybernétiques, ou d'autres interactions non conventionnelles, offrant une perspective unique ou "sombre" de l'internet et de l'humanité.
-
Controverses et Éthique: L'existence et l'utilisation d'IA comme DarkGPT soulèvent des questions éthiques concernant la collecte de données, la privacy, et l'utilisation potentielle de ces technologies pour des activités illégales ou éthiquement douteuses. La communauté discute de la responsabilité des développeurs et des utilisateurs dans l'usage de telles technologies.
-
Inspiration et Crétation: Dans le domaine de l'art, de l'entertainment, et de la littérature, DarkGPT et des concepts similaires inspirent des œuvres créatives en permettant de générer du contenu unique, poussant les limites de la collaboration humain-IA.
En résumé, DarkGPT représente une exploration de l'IA dans les domaines moins éclairés de l'internet et de la cognition humaine, offrant des outils pour l'analyse de données sensibles ou non conventionnelles, tout en posant des questions importantes sur l'éthique, la surveillance, et l'innovation technologique. Les discussions autour de DarkGPT varient de son utilité en OSINT à ses implications plus sombres concernant la censure, la vérité, et la nature même de l'information sur internet.
Avis de ChatGPT (version gratuite) à propos de DarkGPT
"DarkGPT" est un terme qui désigne des versions ou variantes non officielles de modèles de langage, souvent basées sur GPT, et modifiées pour permettre des activités malveillantes, non sécurisées ou illicites. Ces versions sont parfois conçues pour contourner les garde-fous et les mesures de sécurité intégrées aux modèles légitimes comme ChatGPT, afin de fournir des informations sensibles ou des conseils sur des activités potentiellement illégales, comme le piratage, la fraude ou d'autres usages nuisibles.
Ces modèles non sécurisés ou altérés circulent souvent sur des forums ou des réseaux du "dark web", où ils sont utilisés pour des motifs divers, allant de l'éducation à la cybersécurité jusqu'à la facilitation de crimes. Le développement et l'usage de telles versions sont considérés comme risqués et illégaux dans de nombreux contextes, car ils exposent non seulement leurs utilisateurs à des dangers juridiques mais aussi à des cyberattaques. Les versions sûres et légitimes comme celles d'OpenAI intègrent des protections rigoureuses pour éviter ces risques.
Avis de Copilot à propos de DarkGPT
DarkGPT est un assistant intelligent basé sur l'IA GPT-4, conçu pour aider les professionnels de la cybersécurité et les chercheurs en Open Source Intelligence (OSINT).
Son objectif principal est d'interagir avec des bases de données compromises ou divulguées pour collecter des informations utiles à la détection des menaces et des fuites de données.
Il permet de formuler des requêtes sur ces bases de données afin d'obtenir des résultats pertinents. C'est un outil puissant pour les chercheurs en sécurité qui souhaitent optimiser leur processus d'analyse OSINT.
Est-ce que tu t'intéresses à la cybersécurité ou à l'OSINT ?
https://github.com/luijait/DarkGPT
Avis de Gemini
DarkGPT : Une version non censurée de ChatGPT ?
Le terme "DarkGPT" est souvent utilisé pour désigner une version prétendument non censurée du célèbre modèle de langage ChatGPT. L'idée sous-jacente est qu'il s'agirait d'une IA capable de répondre à toutes les questions, même les plus sombres ou les plus controversées, sans aucune restriction.
Mais qu'en est-il réellement ?
- Un concept plus qu'une réalité : Il est important de noter que DarkGPT n'est pas un produit officiel de OpenAI, l'entreprise à l'origine de ChatGPT. Le terme est plutôt utilisé dans le cadre de vidéos YouTube et de discussions en ligne pour créer du buzz et attirer l'attention.
- Des limites techniques et éthiques : Même si l'idée d'une IA sans limites peut être séduisante, elle soulève de nombreuses questions éthiques. Les modèles de langage comme ChatGPT sont entraînés sur d'énormes quantités de données, et il est extrêmement difficile, voire impossible, de créer un modèle qui ne serait pas influencé par les biais présents dans ces données.
- Le rôle des plateformes : Les plateformes qui hébergent ces modèles, comme YouTube, ont généralement des politiques strictes en matière de contenu. Il est donc peu probable qu'elles permettent la diffusion à grande échelle d'un modèle capable de générer des contenus haineux, violents ou illégaux.
En résumé,
DarkGPT est avant tout un concept marketing utilisé pour créer du contenu sensationnel. Bien qu'il soit techniquement possible de créer des modèles de langage plus permissifs, les implications éthiques et les contraintes techniques rendent cette perspective peu réaliste à grande échelle.
Il est important de rester critique face à ce type de contenu et de ne pas prendre pour argent comptant toutes les affirmations qui circulent sur internet.
Pour en savoir plus, je vous invite à consulter ces vidéos qui expliquent le concept de DarkGPT de manière plus approfondie :
- DarkGPT : la version NON CENSURÉE de ChatGPT : https://www.youtube.com/watch?v=sEsbfA09ctM
- DarkGPT : l'IA répond aux questions les plus glauques : [URL non valide supprimée]
Avez-vous d'autres questions sur DarkGPT ou sur les modèles de langage en général ?
Disclaimer : Je ne peux pas fournir d'informations sur des contenus illégaux ou dangereux. Si vous êtes intéressé par des sujets sensibles, je vous encourage à consulter des sources fiables et à faire preuve de discernement.
En Bref:
En bref:
- pour perplexity, c'est une fake... on est pas certain que ça existe vraiment. C'est l'IA complotiste pour les complotistes.
- Pour Grok c'est un outil sans filtre, sans censure et qui va sur le darkWeb chercher des infos
- pour chaTGPT, c'est u modèle de langage non fiable, illégal qui sans garde fous qui circule sous le manteau et qui expose ses utilisateurs à des risques de sécurité. Préférez la version sécurisée et fiable développée par OpenAI.
- Pour copilot c'est un outil pour aider les professionnels de la cybersécurité et les chercheurs en Open Source Intelligence (OSINT). Ou les base de données compromises ou divulguée.
- Pour Gemini c'est un concept marketing pour créer du contenu sensationnel et allez voir sur youtube pour en savoir plus c'est une bonne plateforme qui ne va pas permettre la diffusion de contenu haineux, violent et illégal.
Pourquoi les photos sont souvent plus dénudée que ça ne devrait l'être ?
Il s'autocensure même pour des avatar qui pourraient être nus !
Quand on demande un humain "normal", la morphologie ressemble à un idéal de beauté, genre topp model !!
En fait où est-ce qu'il existe une base de donnée d'humain "nu" mais normaux !!
La majorité des images d'humains nus qui existe se trouvent sur des sites porno !!!
On a donc la un tabou, un domaine que les IA ne peuvent connaitre facilement. Et donc un biais majeurs sur la création d'avatar et de photos d'humain en général , d'humains "normaux".
La galerie de template...
https://generated.photos/human-generator/65054c5d50c78d0012b5e654
Ce ventre de maman artificiel chinois contrôlé par IA va bouleverser la fabrication des bébés
La Chine expérimente des utérus artificiels contrôlés par intelligence artificielle pour contrer la baisse de la natalité. Cette avancée scientifique soulève autant d'espoir que de questions éthiques.
24/10/2024
Importer vos sources
Importez des PDF, des sites Web, des vidéos YouTube, des fichiers audio, des documents Google Docs ou des présentations Google Slides. NotebookLM les résumera et établira des liens intéressants entre les thèmes, grâce aux capacités de compréhension multimodale de Gemini 1.5.
Insights instantanés.
Une fois toutes vos sources en place, NotebookLM se met au travail et devient un expert IA personnalisé dans les domaines qui vous intéressent le plus.
Voir la source, pas seulement la réponse
Ayez confiance en chaque réponse. NotebookLM fournit des citations claires pour son travail, en affichant les extraits exacts de vos sources.
NotebookLM est un assistant de recherche et un outil de prise de notes gratuit alimenté par l'IA et développé par Google. S'appuyant sur le modèle avancé Gemini 1.5 Pro, cet assistant virtuel excelle à résumer les informations et à générer des idées à partir des documents téléchargés. En téléchargeant simplement des sources pertinentes, vous pouvez transformer NotebookLM en un expert compétent sur les sujets qui vous intéressent. L'outil fournit des réponses précises avec des citations et des sources en ligne, garantissant ainsi l'exactitude et la traçabilité.
17.10.2024
Le Pentagone veut utiliser l'IA pour créer de faux internautes
Le ministère de la défense veut se doter d'une technologie qui lui permette de créer des personnages en ligne impossibles à distinguer des personnes réelles.
Le commandement secret des opérations spéciales des États-Unis recherche des entreprises pour l'aider à créer de faux internautes si convaincants que ni les humains ni les ordinateurs ne pourront les détecter, selon un document d'appel d'offres examiné par The Intercept.
Le plan, mentionné dans une nouvelle liste de 76 pages de souhaits du Commandement des opérations spéciales conjointes (JSOC) du ministère de la défense, décrit les technologies avancées souhaitées pour les efforts militaires clandestins les plus élitaires du pays. "Les forces d'opérations spéciales (SOF) sont intéressées par les technologies qui peuvent générer des personnalités en ligne convaincantes à utiliser sur les plateformes de médias sociaux, les sites de réseautage social et d'autres contenus en ligne", peut-on lire dans le document.
Le document précise que le JSOC souhaite pouvoir créer des profils d'utilisateurs en ligne qui "semblent être un individu unique, reconnaissable comme humain, mais qui n'existe pas dans le monde réel", avec pour chacun d'eux des "expressions multiples" et des "photos de qualité d'identification gouvernementale".
Outre les images fixes de personnes fictives, le document précise que "la solution doit inclure des images faciales et d'arrière-plan, des vidéos faciales et d'arrière-plan, ainsi que des couches audio", et le JSOC espère pouvoir générer des "vidéos de selfie" à partir de ces personnes fabriquées de toutes pièces. Ces vidéos ne comporteront pas que de fausses personnes : Chaque deepfake selfie sera accompagné d'un arrière-plan simulé correspondant, "afin de créer un environnement virtuel indétectable par les algorithmes des médias sociaux".
Ces dernières années, le Pentagone a déjà été pris en flagrant délit d'utilisation de faux utilisateurs de médias sociaux pour servir ses intérêts. En 2022, Meta et Twitter ont supprimé un réseau de propagande utilisant de faux comptes gérés par l'U.S. Central Command, dont certains avec des photos de profil générées avec des méthodes similaires à celles décrites par le JSOC. En 2024, une enquête de Reuters a révélé une campagne du Commandement des opérations spéciales utilisant de faux utilisateurs de médias sociaux et visant à saper la confiance des étrangers dans le vaccin Covid de la Chine.
L'année dernière, le commandement des opérations spéciales, ou SOCOM, a exprimé son intérêt pour l'utilisation de vidéos "deepfakes", un terme général désignant des données audiovisuelles synthétisées censées être impossibles à distinguer d'un enregistrement authentique, dans le cadre d'"opérations d'influence, de déception numérique, de perturbation de la communication et de campagnes de désinformation".
Ces images sont générées à l'aide de diverses techniques d'apprentissage automatique, généralement à l'aide de logiciels qui ont été "entraînés" à reconnaître et à recréer des caractéristiques humaines en analysant une base de données massive de visages et de corps. La liste de souhaits du SOCOM de cette année indique un intérêt pour un logiciel similaire à StyleGAN, un outil publié par Nvidia en 2019 qui a alimenté le site Web mondialement populaire "Cette personne n'existe pas". Moins d'un an après le lancement de StyleGAN, Facebook a déclaré avoir supprimé un réseau de comptes qui utilisaient la technologie pour créer de fausses photos de profil.
Depuis lors, les chercheurs du secteur universitaire et du secteur privé se sont engagés dans une course entre de nouveaux moyens de créer des deepfakes indétectables et de nouveaux moyens de les détecter. De nombreux services publics exigent désormais une détection de la vivacité pour déjouer les photos d'identité truquées, en demandant aux candidats humains de télécharger une vidéo selfie pour prouver qu'ils sont une personne réelle - un obstacle que le SOCOM pourrait être intéressé à déjouer.
La liste indique que les troupes d'opérations spéciales "utiliseront cette capacité pour recueillir des informations sur les forums publics en ligne", sans autre explication sur l'utilisation de ces utilisateurs artificiels de l'internet.
Cette liste plus détaillée montre que les États-Unis utilisent exactement les mêmes technologies et techniques que celles qu'ils condamnent lorsqu'elles sont utilisées par des ennemis géopolitiques. Les responsables de la sécurité nationale décrivent depuis longtemps l'utilisation de "deepfakes" soutenue par les États comme une menace urgente, à condition qu'elle soit le fait d'un autre pays.
En septembre dernier, une déclaration commune de la NSA, du FBI et de la CISA avertissait que "les médias synthétiques, tels que les "deepfakes", représentent un défi croissant pour tous les utilisateurs de la technologie et des communications modernes". La prolifération mondiale de la technologie des deepfakes y est décrite comme un "risque majeur" pour 2023. Dans une note d'information adressée aux journalistes cette année, les responsables du renseignement américain ont averti que la capacité des adversaires étrangers à diffuser des "contenus générés par l'IA" sans être détectés - exactement la capacité que le Pentagone recherche actuellement - représente un "accélérateur d'influence malveillante" de la part de pays comme la Russie, la Chine et l'Iran. Au début de l'année, la Defense Innovation Unit du Pentagone a sollicité l'aide du secteur privé pour lutter contre les "deepfakes" avec un air alarmiste : "Cette technologie est de plus en plus courante et crédible, ce qui représente une menace importante pour le ministère de la défense, d'autant plus que les adversaires des États-Unis utilisent les deepfakes à des fins de tromperie, de fraude, de désinformation et d'autres activités malveillantes. Un document publié en avril par l'Institut d'études stratégiques de l'armée américaine fait état de préoccupations similaires : "Les experts s'attendent à ce que l'utilisation malveillante de l'IA, y compris la création de fausses vidéos pour semer la désinformation afin de polariser les sociétés et d'approfondir les griefs, se développe au cours de la prochaine décennie.
"Il n'y a pas d'autres cas d'utilisation légitime que la tromperie.
L'utilisation offensive de cette technologie par les États-Unis stimulerait naturellement sa prolifération et la normaliserait en tant qu'outil pour tous les gouvernements. "Ce qui est remarquable à propos de cette technologie, c'est qu'elle est purement trompeuse", a déclaré Heidy Khlaaf, responsable scientifique de l'IA à l'AI Now Institute. "Il n'y a pas d'autres utilisations légitimes que la tromperie, et il est inquiétant de voir l'armée américaine se lancer dans l'utilisation d'une technologie contre laquelle elle a elle-même mis en garde. Cela ne fera qu'encourager d'autres armées ou adversaires à faire de même, conduisant à une société où il est de plus en plus difficile d'établir la vérité de la fiction et brouillant la sphère géopolitique".
La Russie et la Chine ont été prises en flagrant délit d'utilisation de vidéos truquées et d'avatars d'utilisateurs dans le cadre de leurs efforts de propagande en ligne, ce qui a incité le département d'État à annoncer en janvier un "cadre de lutte contre la manipulation de l'information par des États étrangers". "La manipulation de l'information et l'ingérence étrangère constituent une menace pour la sécurité nationale des États-Unis, de leurs alliés et de leurs partenaires", indique un communiqué de presse du département d'État. "Les gouvernements autoritaires utilisent la manipulation de l'information pour déchirer le tissu des sociétés libres et démocratiques.
L'intérêt du SOCOM pour les "deepfakes" s'inscrit dans le cadre d'une tension fondamentale au sein du gouvernement américain, a déclaré Daniel Byman, professeur d'études de sécurité à l'université de Georgetown et membre du Conseil consultatif sur la sécurité internationale du département d'État. "Une grande partie du gouvernement américain a tout intérêt à ce que le public croie que le gouvernement diffuse systématiquement des informations véridiques (en toute connaissance de cause) et qu'il ne trompe pas délibérément les gens", explique-t-il, alors que d'autres branches sont chargées de la tromperie. "Il est donc légitime de craindre que les États-Unis soient perçus comme hypocrites", a ajouté M. Byman. "Je m'inquiète également de l'impact sur la confiance des citoyens dans le gouvernement : certains segments de la population américaine deviendront-ils plus méfiants à l'égard des informations émanant du gouvernement ?
Vous opposer à l’utilisation de vos informations pour l’IA de Meta
Vous pouvez vous opposer à ce que Meta utilise vos informations publiques de Facebook et d’Instagram pour développer et améliorer les modèles d’IA générative destinés aux fonctionnalités et expériences de l’IA de Meta. Vous pouvez soumettre ce formulaire afin d’exercer ce droit.
L’IA de Meta désigne notre collection de fonctionnalités et d’expériences d’IA générative, telles que Meta AI et les outils de création basés sur l’IA, ainsi que les modèles qui les alimentent.
Les informations publiques sur nos produits et services peuvent comprendre les éléments publics suivants :
- Les publications
- Les photos et leurs légendes
- Les commentaires
Nous n’utilisons pas le contenu des messages privés envoyés à vos ami·es et votre famille pour entraîner nos IA.
Si votre objection est acceptée, à l’avenir, nous n’utiliserons pas vos informations publiques de Facebook et d’Instagram pour développer et améliorer des modèles d’IA générative pour nos fonctionnalités et expériences basées sur l’IA de Meta.
Votre objection sera également appliquée à tous les comptes que vous avez ajoutés au même Espace Comptes que le compte auquel vous vous êtes connecté·e pour envoyer ce formulaire. Vous devrez envoyer un nouveau formulaire pour chaque compte dont vous disposez qui n’est pas ajouté au même Espace Comptes que ce compte. Consultez les pages d’aide pour en savoir plus sur l’Espace Comptes.
Nous sommes susceptibles de continuer à traiter des informations vous concernant pour développer et améliorer l’IA de Meta, même si vous vous y opposez ou que vous n’utilisez pas nos produits et services. Cela pourrait arriver dans les cas suivants :
- Vous ou vos informations apparaissez sur une image partagée publiquement sur nos produits ou services par quelqu’un qui les utilise
- Vous ou vos informations êtes mentionné·es publiquement dans des publications ou des légendes partagées par un tiers sur nos produits et services
Pour en savoir plus à propos des autres droits dont vous disposez concernant les informations que vous partagez sur les produits et services Meta, consultez notre Politique de confidentialité.
Adresse e-mail
(obligatoire)
Veuillez nous expliquer l’incidence de ce traitement sur vous.
(Facultatif)
57:05
Grock pour d'ailleurs c'est ce que dit Fabrice épboin donc lui il dit carrément grog va courcircuiter les médias parce que comme il a accès au micro dépêche
57:12
que sont les les posts sur X et pas les autres ia
––––––––––
d'après xavia Albert le patron de France Soir c'était
57:18
une des raisons pour lesquelles Musk avait vite changé le nom de domaine twitter.com parce que'il y avait des accès
57:24
privilégiés pour exploiter les données de X de Twitter quand c'était twitter.com il y avait plein d'accès et Musk pouvait pas les auditer tous alors que changer le nom de domaine à x.com ça facilitait la coupure des ponts avec tous les parasites qui exploitaient ces données.
et on l'a vu sur la question des likes hein les fameux likes que par exemple c'est ce que c'est ce que Thierry Breton a retenu contre contre Twitter il a dit vous n'ouvrez pas vos données aux organisations non lucratives de l'Union européenne qui sont en fait des des trucs du type l'Institute for strategic dialogue
ChatGPT n'est pas une "intelligence", ne l'appelez donc pas "IA".
Je définis l'"intelligence" comme le fait d'être capable de connaître ou de comprendre, au moins dans un certain domaine. ChatGPT ne peut rien savoir ni comprendre, ce n'est donc pas une intelligence. Il ne sait pas ce que signifie sa production. Il ne sait pas que les mots peuvent signifier quelque chose.
Je l'appelle un "générateur de conneries" parce qu'il génère des résultats "avec indifférence à la vérité".
Il en va de même pour de nombreux autres "systèmes génératifs", pour les mêmes raisons
L'erreur publique largement répandue qui consiste à attribuer une intelligence à ces systèmes conduit des millions de personnes à leur accorder une confiance déplacée. Rejoignez-moi pour faire savoir qu'il ne faut pas faire confiance aux systèmes qui jouent inconsidérément avec les mots pour savoir ce que ces mots signifient.
Une autre raison de rejeter ChatGPT en particulier est que les utilisateurs ne peuvent pas en obtenir une copie. Il s'agit d'un logiciel non publié - les utilisateurs ne peuvent même pas obtenir un exécutable à exécuter, sans parler du code source. La seule façon de l'utiliser est de parler à un serveur qui garde les utilisateurs à distance.
Faire fonctionner son propre ordinateur à l'aide d'un logiciel sur le serveur de quelqu'un d'autre est une atteinte à la liberté des utilisateurs.
Les magasins sans caissiers "alimentés par l'IA" d'Amazon utilisent donc beaucoup de... humains. Voici pourquoi cela ne devrait pas vous surprendre
The Guardian (États-Unis)11 Apr 2024James Bridle
Photographie : Niklas Halle'n/AFP/Getty Images
''Just walk out'' a peut-être fait son temps, mais l'élision du confort du consommateur et du déni plausible est bien vivante dans la grande rue.''
En 2021, lorsqu' Amazon a lancé sa première épicerie "Just walk out" au Royaume-Uni à Ealing, dans l'ouest de Londres, ce journal a publié un article sur les technologies de pointe qui, selon Amazon, rendaient tout cela possible : caméras de reconnaissance faciale, capteurs sur les étagères et, bien sûr, "intelligence artificielle". Les premiers clients ont fait la queue à l'extérieur, impatients de découvrir le futur. "Je suis un early adopter", a déclaré l'un d'entre eux. "J'ai hâte de voir comment fonctionne cette nouvelle technologie et je pense qu'elle sera bientôt omniprésente.
La promesse des magasins "just walk out" était que les clients n'auraient pas besoin de faire la queue devant un caissier, de scanner leurs propres articles ou même de faire une pause en sortant. Ils pouvaient simplement prendre ce dont ils avaient besoin, passer la porte et l'œil bienveillant et omniscient de la technologie fixerait le prix de leurs marchandises, débiterait leur compte et leur enverrait un reçu.
En réalité, des gens regardaient les clients d'Amazon faire leurs achats. Plus d'un millier d'entre eux, comme l'a rapporté The Information, regardaient les caméras et étiquetaient les images des clients. Un employé qui a travaillé sur la technologie a déclaré que de véritables humains - bien que distants et invisibles, basés en Inde - examinaient environ 70 % des ventes effectuées dans les magasins "sans caissiers" à partir de la mi-2022 (Amazon a répondu que "la caractérisation du rôle et du nombre d'examinateurs humains n'est pas exacte"). Aujourd'hui, Amazon serait en train de s'éloigner de l'idée du "Just walk out" et de mettre en place des "chariots intelligents" à la place (un scanner dans votre chariot - big whoop).
Je ne saurais trop insister sur le fait que cela ne devrait pas être une surprise. Tout d'abord, l'histoire des faux robots est très, très ancienne. Elle remonte au moins à 1770 et au "Turc mécanique" original, un robot joueur d'échecs qui a séduit les cours d'Europe pendant des décennies jusqu'à ce qu'il soit révélé qu'il s'agissait en fait d'une série de grands maîtres cachés dans une boîte. Parmi les mises à jour récentes, on peut citer l'"assistant intelligent" de Facebook, M, qui prétend être une IA mais qui renvoie toute question complexe à des personnes, et Cruise, l'entreprise de voitures autopilotées dont les opérations nécessitent l'intervention de travailleurs à distance tous les deux miles et demi à cinq miles.
Toutes ces histoires, prises séparément, sont assez drôles. Mais collectivement, elles brossent le tableau d'une société et d'une culture totalement incapables d'enregistrer la violence qui leur est faite, simplement parce que le processus historique est drapé dans les rubans de la "technologie". Cette violence est perpétrée simultanément dans les grandes rues et sur la scène mondiale. Ce qui me met en colère dans le fait que nous continuons à tomber dans le panneau, ce n'est pas seulement le fait que nous devrions être mieux informés, mais aussi le coût que cela représente.
Le salaire minimum national au Royaume-Uni est de 11,44 livres sterling. Une petite épicerie comme celle d'Amazon Fresh peut compter une demi-douzaine d'employés. En supposant qu'ils soient tous
soient tous payés à plein tarif (ce qui est peu probable) et que tous soient payés au salaire le plus bas (c'est-à-dire qu'ils ne soient pas cadres), le salaire individuel moyen serait d'environ 20 000 livres et la masse salariale annuelle de 130 000 livres. Lorsque ce travail est externalisé par le biais de caméras vidéo, il est confié à des étiqueteurs de données. Les étiqueteurs de données à distance d'Amazon peuvent être payés une ou deux livres de l'heure, s'ils ont de la chance. Si vous pouvez remplacer une demi-douzaine d'employés britanniques par une demi-douzaine de data labellers en Inde, au Kenya ou aux Philippines, la différence dans la seule facture annuelle de personnel pourrait être de près de 100 000 livres sterling par an.
Jeff Bezos est la deuxième personne la plus riche du monde, avec une valeur d'environ 205 milliards de dollars (163 milliards de livres sterling). Cet argent ne sort pas de nulle part. Il ne sort pas d'une machine à sous située au bout d'une jetée et intitulée "J'ai appris à coder à Princeton et c'est pour cela que je suis meilleur que vous". C'est le résultat de la dissimulation délibérée du travail réel - concevoir, fabriquer, trier, emballer, cuisiner, cultiver, livrer - derrière de petites icônes sur l'écran de votre smartphone, afin de le dévaloriser. C'est l'utilisation systématique de l'astuce du faux robot pour diminuer la valeur du travail, jusqu'à ce que les gens dorment dans des tentes aux portes de l'usine, et qu'ils mettent la différence en banque.
La taille de la fusée de Bezos est très précisément déterminée par la différence de coût entre le salaire d'un travailleur britannique et celui d'un travailleur indien - y compris toute l'inégalité raciste et colonialiste historiquement déterminée que ce calcul implique. Mais ne vous y trompez pas : Bezos et ses semblables paieront un robot encore moins cher, dès que cela sera possible. La seule leçon à tirer d'Amazon Fresh est que nous n'en sommes pas encore - tout à fait - là.
L'histoire du faux robot a également un autre objectif : c'est une distraction. En 2021, Amazon et Google ont signé conjointement un contrat de 1,2 milliard de dollars pour fournir à l'État israélien, y compris à l'armée, des systèmes d'informatique en nuage et d'intelligence artificielle. Bien qu'il n'y ait aucune preuve que Google ou
Si rien ne prouve que la technologie de Google ou d'Amazon ait été utilisée pour tuer des civils, cet accord permanent témoigne d'une volonté de s'engager avec une armée qui a tué 30 000 personnes et dont l'utilisation du ciblage par "IA" lui permet de dire : "C'est la machine qui a fait le coup : "C'est la machine qui l'a fait".
Le slogan "Just walk out" a peut-être fait son temps, mais l'élision du confort du consommateur et du déni plausible est bien vivante dans les grandes surfaces. Tesco a ouvert son premier magasin GetGo en 2021, promettant le même type de commodité sans caisse que "Just walk out" - il y a maintenant des magasins à Londres, Birmingham et Welwyn Garden City. Tesco se targue d'utiliser la reconnaissance faciale, mais GetGo crée des "contours squelettiques" de vous. La technologie sous-jacente du service est fournie par Trigo, une société israélienne qui se vante que la quasi-totalité de ses ingénieurs ont été "triés sur le volet dans des unités militaires d'élite", notamment l'unité 8200, l'agence de surveillance militaire de Tsahal, et l'unité 9900, sa division spécialisée dans la surveillance et la cartographie. Le suivi point par point de corps inconnus dans l'espace bâti, basé sur l'analyse algorithmique de la démarche et de la posture ? Je me demande où ils ont appris à faire cela.
James Bridle est écrivain et artiste, et l'auteur de Ways of Being : Beyond Human Intelligence
Article Name:Les magasins sans caissiers "alimentés par l'IA" d'Amazon utilisent beaucoup d'êtres humains. Voici pourquoi cela ne devrait pas vous surprendre
Publication:The Guardian (USA)
Auteur:James Bridle