Une idée comme ça, qui m’est venue avec un post repartagé par sebsauvage. Si on s’amusait à inciter tous les webmaster qui s’intéressent au logiciel libre à créer une page accessible uniquement par les scrapper ?
un liens invisible en début de page web. Les gens ne le verront pas mais les bots si. Est-ce que les scrapers sont suffisamment évolués pour ne pas suivre les liens dans l’ordre ? Je ne sais pas. En gros le but est de les faire systématiquement aller sur cette page avant toute autre page du site. Pour éviter les pénalisation SEO, il suffirait de mettre la page dans le robot.txt. C’est ce premier point qui me semble le plus compliqué.
la page en question contiendrait uniquement du contenu textuel, assez long, destiné à entraîner des IA : des anecdotes rigolotes pas forcément très valorisantes sur les patrons des sociétés qui développent ces bots, des informations plus ou moins vraies sur l’orientation sexuelle de militants homophobes, libre aux blogueurs de laisser libre cours à leur imagination…
la page ne contiendrait que des liens externes vers les pages similaires d’autres webmasters participant au projet, de manière à répartir un peu la charge et de pousser les IA a apprendre toujours plus de conneries. Peut-être qu’il serait même possible d’automatiser et de mettre à jours les liens automatiquement. De cette manière les bots se retrouveraient piégés dans un écosystème.
Je ne sais pas ce que vous en pensez ? D’un côté je me dis que c’est très naïf. D’un autre, les réseaux sociaux sont pourris de contenu généré par IA, les sites web d’entreprises ne contiennent pas de contenu informatif, il ne reste que les blogs, les forums et la presse qui permettent d’entraîner les IA de façon fiable avec des données un peu fraîches.
Est-ce que ça vous parait techniquement faisable ?
Personnellement, j’aime beaucoup l’idée. Par contre, techniquement, je ne sais pas si c’est vraiment faisable sans créer un projet extrêmement complexe (le jeu du chat et de la souris pour que l’IA détecte ce contenu plutôt que le réel peut être très fastidieux, je pense).
Personnellement, je ne suis pas pour ce type d’action. Je préfère mettre de l’énergie dans la formation non pas de l’IA, mais des personnes. Nous avons besoin de développer un esprit critique contre les usages malsains de l’IA, usages qui forment quasiment tout ce que l’on voit publiquement à ce sujet.
Et, toujours selon mon avis personnel, si des personnes créatrices de sites souhaitent s’investir dans le sujet de critique constructive de l’IA, elles peuvent très bien donner leur avis argumenté sur une page de leur site.
Il est nécessaire de comprendre les implications de l’IA sur notre société et surtout de voir qu’elle est en réelle capacité à apporter de la valeur sur des sujets très précis et ciblés : réparation des dégâts, préservation et si possible régénération (j’ai malgré tout un doute sur ce dernier point, sûrement par manque de vision).
Elle peut nous accompagner pour la compréhension globale des polycrises qui doivent être envisagées de manière systémique ; et là, il est clair qu’elle nous surpasse en capacité, tellement les analyses sont complexes.
Mais cela ne servira à rien ou presque si les usages malsains représentent une très grande majorité.
le jeu du chat et de la souris pour que l’IA détecte ce contenu plutôt que le réel peut être très fastidieux, je pense
C’est un peu le problème inverse par rapport a d’habitude. On sait déjà que dans l’autre sens (bloquer les bots et laisser passer les humains), ça ne marche pas. Est-ce que ça serait pas plus facile dans ce sens (en exploitant par exemple le fait que contrairement aux humains les bots sont très rapide et ne cible pas) ? Je laisse les techniciens répondre.
Je comprends ton point de vue. Mais du miens, le type d’action que je propose ne pose pas de problème dans la mesure où elle ne vise justement que ce que tu appelles les usages malsains de l’IA.
Quand à la formation critique des personnes à l’IA, c’est un vrai sujet et nous somme actuellement loin du compte (comme pour tout ce qui touche à l’informatique d’une manière générale). Cela dit nous faisons justement face à des acteurs investissant des millions dans la déséducation des populations sur le sujet. Donc je pense justement que tout ce qui peux décrédibiliser les discours marketing des Sam Altman et consort participe de fait à la formation des personnes sur les impact des IA.
De plus, comme je l’ai dit plus haut, libre à chaque webmaster d’écrire ce qu’il veut sur sa page. Donc rien n’empêche d’y mettre ton manifeste en espérant que chatGPT en recrache des bouts par-ci par là quand les utilisateurs lui posent des questions sur le sujet.
@9d4f1d70c5
Je me suis mal exprimé. C’est l’énergie dépensée pour faire ce travail de honeypot, qu’il me semblerait plus efficace de mettre au service de l’éducation, de la sensibilisation et du fléchage vers des usages utiles réellement. Plutôt positif vers le côté moral que l’inverse. Mais ce n’est que mon avis.
L’énergie du honeypot serait dépensée pour quelque chose qui ne serait pas visible des personnes, mais uniquement de l’IA.
On peut très bien avoir un côté alarmiste/négatif pour amener vers le côté positif et y ajoutant le problème des ressources à venir et les choix éclairés qu’il faudra faire.