On ne pourrait jamais prétendre faire le tour de TOUTE l’actualité IA de la rentrée mais voici quelques informations qui nous semblait intéressant de vous partager:
Miam miam les données : la traque continue pour nourrir les LLM
Grosse rentrée pour l’IA, qui elle pour le coup, ne prend jamais de vacances, et ni les tribunaux d’ailleurs, qui viennent de condamner Google à une belle amende de 425$ millions pour collecte illégale de données.Que voulez-vous, les modèles ont faim !
D’ailleurs, l’outil de retranscription Otter Notebook est aussi accusé d’enregistrer clandestinementles appels des utilisateurs et se retrouve actuellement traduit en justice dans un tribunal californien. À l’heure où le gouvernement fédéral américain cherche à restreindre la portée du Digital Services Act européen, c’est plutôt une bonne nouvelle que le cadre du California Consumer Privacy Act (inspiré du RGPD) offre un cadre de protection aux utilisateurs.
La présidente du service de messagerie Signal sonne l’alarme sur l’installation des agents IA dans nos outils de communication
Au sommet “Ai for Good” des Nations Unies, Meredith Whittaker vulgarise et résume les enjeux associés au déploiement des agents. Voici la transcription éditée de son intervention :
https://youtu.be/jE_CNezjV7o?si=G1udNbUwMIihXoFE
“L’IA agentique est devenue le
nouveau mot à la mode. Ce que l’on appelait auparavant un assistant est
désormais présenté comme un agent. Je pense qu’il existe un réel danger,
et Signal observe cette évolution de près. Le problème, c’est
l’introduction de cette idée d’IA agentique dans nos appareils et dans
notre vie quotidienne.
Le
risque est que nous confions un immense pouvoir à ces systèmes, qui
auront besoin d’accéder à une grande quantité de nos données
personnelles. Selon les promesses marketing, la valeur ajoutée serait,
par exemple : l’IA peut rechercher un concert, réserver un billet,
l’inscrire dans votre agenda et envoyer un message à tous vos amis pour
les prévenir. L’implication est que nous pourrions littéralement «
mettre notre cerveau dans un bocal », puisque le système gère tout à
notre place.
Mais de quoi l’IA
a-t-elle besoin pour faire cela ? Elle doit avoir accès à notre
navigateur et être capable de le piloter, à nos informations bancaires
pour payer les billets, à notre agenda pour consulter notre emploi du
temps, et à nos applications de messagerie comme Signal pour prévenir
nos amis. Pour y parvenir, le système doit fonctionner avec des
autorisations proches de celles d’un administrateur système : accéder à
toutes ces bases de données, probablement en clair, puisqu’il n’existe
pas encore de modèle chiffré capable de traiter cela.
Si
le modèle est suffisamment puissant, il ne tournera pas sur l’appareil
lui-même. Le traitement « on-device » n’est pas une véritable protection
dans ce cas. En réalité, ces informations seront presque certainement
envoyées à un serveur dans le cloud, traitées là-bas, puis renvoyées.
Cela pose de graves problèmes de sécurité et de confidentialité.
Tout
ce battage autour des agents menace de briser ce que l’on pourrait
appeler la « barrière hémato-encéphalique » entre la couche applicative
et la couche système. Cela fusionne les services, mélange les données et
risque de compromettre la confidentialité des applications de
messagerie sécurisées comme Signal.
En
effet, pour que l’agent puisse écrire à vos amis, il doit accéder à vos
messages privés, en extraire des données et les résumer — afin que,
encore une fois, l’IA « pense » à votre place, tandis que vous êtes tenu
à l’écart du processus.
Nous
devons être très prudents. L’enjeu immédiat n’est pas seulement
l’héritage historique de l’IA, liée aux modèles de surveillance, mais
aussi l’affaiblissement actuel des garanties en matière de sécurité et
de confidentialité. Tout cela est justifié au nom de la création d’un «
génie magique » censé s’occuper des tâches quotidiennes à notre place.”
Un contrôle parental sur ChatGPT ?
Suite
au tragique suicide d’un jeune homme influencé par les réponses de la machine,
les parents ont intenté au procès au géant américain, qui devrait
permettre d’imposer un contrôle parental sur les outils d’OpenAi.
Reste à
savoir quelle forme il prendra et l’efficacité avérée de ce genre de
dispositif.
Une bonne nouvelle (quand même) : un adolescent crée un bras robotisé contrôlé par la pensée avec l’assistance de l’IA.
Même si la nouvelle date de 2022, elle semble refaire le buzz en ce mois de septembre.
L’adolescent
américain Benjamin Choi a entraîné une intelligence artificielle à
reconnaître les ondes cérébrales associées à l’imagination d’un
mouvement. Grâce à cela, la prothèse réagit en temps réel à l’intention
de l’utilisateur – sans cloud, sans connexion Internet, uniquement avec
de l’intelligence embarquée. Son modèle est plus efficace et 1500 fois
moins coûteux qu’un produit similaire
L’adolescent
ne s’est pas arrêté à l’innovation technologique. Il a décidé de rendre
son projet open source. Aucune licence exclusive, aucun brevet. Il a
simplement publié les plans en ligne, gratuitement, pour que chacun
puisse télécharger, imprimer et assembler sa propre prothèse.
Bonne rentrée !