Veille d’IA : une prothèse low cost et open source, les risques des agents, encore des vols de données

On ne pourrait jamais prétendre faire le tour de TOUTE l’actualité IA de la rentrée mais voici quelques informations qui nous semblait intéressant de vous partager: 

Miam miam les données : la traque continue pour nourrir les LLM

Grosse rentrée pour l’IA, qui elle pour le coup, ne prend jamais de vacances, et ni les tribunaux d’ailleurs, qui viennent de condamner Google à une belle amende de 425$ millions pour collecte illégale de données.Que voulez-vous, les modèles ont faim !

D’ailleurs, l’outil de retranscription Otter Notebook est aussi accusé d’enregistrer clandestinementles appels des utilisateurs et se retrouve actuellement traduit en justice dans un tribunal californien. À l’heure où le gouvernement fédéral américain cherche à restreindre la portée du Digital Services Act européen, c’est plutôt une bonne nouvelle que le cadre du California Consumer Privacy Act (inspiré du RGPD) offre un cadre de protection aux utilisateurs. 


La présidente du service de messagerie Signal sonne l’alarme sur l’installation des agents IA dans nos outils de communication 

Au sommet  “Ai for Good” des Nations Unies, Meredith Whittaker vulgarise et résume les enjeux associés au déploiement des agents. Voici la transcription éditée de son intervention : 

https://youtu.be/jE_CNezjV7o?si=G1udNbUwMIihXoFE


L’IA agentique est devenue le nouveau mot à la mode. Ce que l’on appelait auparavant un assistant est désormais présenté comme un agent. Je pense qu’il existe un réel danger, et Signal observe cette évolution de près. Le problème, c’est l’introduction de cette idée d’IA agentique dans nos appareils et dans notre vie quotidienne.
Le risque est que nous confions un immense pouvoir à ces systèmes, qui auront besoin d’accéder à une grande quantité de nos données personnelles. Selon les promesses marketing, la valeur ajoutée serait, par exemple : l’IA peut rechercher un concert, réserver un billet, l’inscrire dans votre agenda et envoyer un message à tous vos amis pour les prévenir. L’implication est que nous pourrions littéralement « mettre notre cerveau dans un bocal », puisque le système gère tout à notre place.
Mais de quoi l’IA a-t-elle besoin pour faire cela ? Elle doit avoir accès à notre navigateur et être capable de le piloter, à nos informations bancaires pour payer les billets, à notre agenda pour consulter notre emploi du temps, et à nos applications de messagerie comme Signal pour prévenir nos amis. Pour y parvenir, le système doit fonctionner avec des autorisations proches de celles d’un administrateur système : accéder à toutes ces bases de données, probablement en clair, puisqu’il n’existe pas encore de modèle chiffré capable de traiter cela.
Si le modèle est suffisamment puissant, il ne tournera pas sur l’appareil lui-même. Le traitement « on-device » n’est pas une véritable protection dans ce cas. En réalité, ces informations seront presque certainement envoyées à un serveur dans le cloud, traitées là-bas, puis renvoyées. Cela pose de graves problèmes de sécurité et de confidentialité.
Tout ce battage autour des agents menace de briser ce que l’on pourrait appeler la « barrière hémato-encéphalique » entre la couche applicative et la couche système. Cela fusionne les services, mélange les données et risque de compromettre la confidentialité des applications de messagerie sécurisées comme Signal. 
En effet, pour que l’agent puisse écrire à vos amis, il doit accéder à vos messages privés, en extraire des données et les résumer — afin que, encore une fois, l’IA « pense » à votre place, tandis que vous êtes tenu à l’écart du processus.
Nous devons être très prudents. L’enjeu immédiat n’est pas seulement l’héritage historique de l’IA, liée aux modèles de surveillance, mais aussi l’affaiblissement actuel des garanties en matière de sécurité et de confidentialité. Tout cela est justifié au nom de la création d’un « génie magique » censé s’occuper des tâches quotidiennes à notre place.”


Un contrôle parental sur ChatGPT ? 
Suite au tragique suicide d’un jeune homme influencé par les réponses de la machine, les parents ont intenté au procès au géant américain, qui devrait permettre d’imposer un contrôle parental sur les outils d’OpenAi
Reste à savoir quelle forme il prendra et l’efficacité avérée de ce genre de dispositif. 


Une bonne nouvelle (quand même) : un adolescent crée un bras robotisé contrôlé par la pensée avec l’assistance de l’IA. 
Même si la nouvelle date de 2022, elle semble refaire le buzz en ce mois de septembre. 
L’adolescent américain Benjamin Choi a entraîné une intelligence artificielle à reconnaître les ondes cérébrales associées à l’imagination d’un mouvement. Grâce à cela, la prothèse réagit en temps réel à l’intention de l’utilisateur – sans cloud, sans connexion Internet, uniquement avec de l’intelligence embarquée. Son modèle est plus efficace et 1500 fois moins coûteux qu’un produit similaire 

L’adolescent ne s’est pas arrêté à l’innovation technologique. Il a décidé de rendre son projet open source. Aucune licence exclusive, aucun brevet. Il a simplement publié les plans en ligne, gratuitement, pour que chacun puisse télécharger, imprimer et assembler sa propre prothèse.


Bonne rentrée !