Modifier un PDF, c’est toujours la galère surtout si c’est un PDF avec que des images sans texte sélectionnable. Soit vous avez Adobe Acrobat qui coûte une couille, soit vous vous tapez des outils en ligne douteux, soit vous exportez en Word et vous priez pour que la mise en page survive. Bref, vous faites vos trucs de losers….
Mais ça c’était sans compter sur
Nano-PDF
qui propose une approche radicalement différente : Vous décrivez ce que vous voulez changer en langage naturel, et l’IA se chargera du reste.
Par exemple, si vous avez une présentation PDF avec une faute de frappe sur la slide n°5, au lieu de galérer avec un éditeur, vous tapez juste
`nano-pdf edit ma_presentation.pdf 5 "Corrige la faute sur le mot 'investisement'"`
Et hop, c’est réglé. Vous voulez mettre à jour un graphique avec les données de 2025 ? Pareil, vous décrivez le changement et l’outil se débrouille !
Nano-PDF utilise
le modèle Gemini 3 Pro Image de Google
(surnommé “Nano Banana Pro”) pour interpréter vos instructions et générer les modifications visuelles. Le workflow technique est d’ailleurs bien fichu puisque les pages PDF sont converties en images via
Poppler
, envoyées au modèle avec votre prompt, puis les images générées sont reconverties en PDF avec une couche de texte restaurée par OCR via Tesseract. Du coup, vos PDF restent sélectionnables et cherchables après modification, contrairement aux solutions qui vous filent des images aplaties.
Côté fonctionnalités, y’a pas mal de choses sympas. Vous pouvez par exemple éditer plusieurs pages en une seule commande, créer de nouvelles slides qui respectent le style visuel de votre deck existant, même utiliser des pages de référence pour que l’IA comprenne mieux votre charte graphique, et le traitement par lot est géré en parallèle pour gagner du temps sur les grosses présentations.
L’installation passe par pip avec
`pip install nano-pdf`
Et comme je vous le disais, il vous faudra aussi Poppler pour le rendu PDF et Tesseract pour l’OCR. Et attention, petit détail qui a son importance, l’API Gemini Pro Image nécessite un compte payant. Faudra sortir la thune car les clés gratuites ne permettent pas de générer des images… donc bon, prévoyez quelques euros de crédit Google Cloud si vous voulez tester.
Le truc cool, c’est par défaut c’est du 4K en résolution, mais vous pouvez descendre en 2K ou 1K si vous voulez économiser sur les coûts d’API. Y’a aussi une option --use-context qui envoie tout le texte du PDF au modèle pour qu’il comprenne mieux le contexte de vos modifications. Et si vous créez une nouvelle slide, cette option est activée par défaut pour que le résultat soit cohérent avec le reste du document.
Voilà, si vous passez votre vie à modifier des présentations PDF et que vous en avez marre des workflows à rallonge,
installez Nano-PDF
. C’est open source sous licence MIT, et ça change la vie !
Linus Torvalds
vient de donner son avis sur l’IA et le vibe coding et ça ne va pas plaire à tout le monde, ahahaha.
Hé oui car pendant que le monde tech se déchire entre les évangélistes de l’IA qui veulent tout automatiser et les énervés qui refusent l’IA par principe idéologique, Linus débarque dans le game avec un avis… de complet normie.
Lors de l’Open Source Summit à Séoul qui vient d’avoir lieu, Linus a partagé sa vision sur l’IA générative et le fameux “vibe coding”. Et son avis, c’est que l’IA c’est juste un outil de plus !
Le vibe coding, pour ceux qui débarquent, c’est ce terme inventé par Andrej Karpathy d’OpenAI qui consiste à décrire ce que vous voulez coder à un LLM. Ce dernière génère alors le code, et vous testez si ça marche ou si ça marche pas. Et ensuite vous demandez des ajustements et ainsi de suite !
Autant dire que c’est devenu un sujet chaud pour pleiiiins de raisons.
Bref, Linus se déclare “plutôt positif” sur le vibe coding mais uniquement comme point d’entrée en informatique. Pour des petits projets, des prototypes rapides…etc c’est top car ça permet à des gens qui ne savent pas coder de faire des trucs super ! Mais après pour du code critique en production, il est cash en expliquant que ça risque d’être “horrible, horrible d’un point de vue maintenance”. Et je ne peux pas lui donner tort.
Linus n’utilise pas personnellement d’IA pour coder mais il voit bien que des gens testent l’IA pour travailler sur du code critique dans le noyau Linux et ça il s’en méfie à raison car les mainteneurs du kernel se prennent régulièrement des bugs reports et des security notices complètement bidons générés par des gens qui utilisent mal les IA.
Les crawlers IA posent aussi des problèmes techniques sur kernel.org car ces bots qui aspirent tout le code pour nourrir leurs modèles font ramer les serveurs. Quoiqu’il en soit, Linus est plutôt modéré sur le sujet de l’IA générative pour coder et attend avec impatience le jour où l’IA sera un truc moins hype. En gros, qu’on arrête d’en parler H24 et qu’on l’utilise juste quand c’est pertinent…
C’est vrai que d’un côté, vous avez ces fifous pro-IA à toutes les sauces qui pensent qu’on va tous devenir des prompt engineers et que les devs vont disparaître (spoiler : non). Et de l’autre, les donneurs de leçons en pureté technologique qui refusent l’IA en bloc sans jamais se poser la moindre question.
Du coup, je vous avoue que je suis content de voir qu’au milieu de tout ce bordel, y’a ce bon vieux Linus qui nous explique que c’est juste un stupide outil et qu’il faut simplement apprendre à l’utiliser intelligemment.
Y’aura bien sûr des comiques qui vont dire que Linus s’est “radicalisé” car avoir un avis nuancé en 2025, c’est devenu extrémiste de ce que j’ai pu voir ces derniers jours, mais sachez que Linus a un peu de bagage historique. Il se souvient par exemple, comme je le disais en intro, du même genre de débats quand les compilateurs sont arrivés. A l’époque, y’avait les puristes du pissage de code qui hurlaient que ça allait tuer le métier de “programmeur” alors qu’au final, ça a juste augmenté la productivité, la sécurité et que ça a permis de faire des trucs plus complexes.
Voilà… l’IA, c’est TOUT PAREIL. Ça va changer la manière dont on code au quotidien, mais ça va pas remplacer les devs (pas tout de suite en tout cas). Ça va juste les rendre plus productifs comme n’importe quel nouvel outil dispo dans votre boite à outils.
Et pour les fans de vibe coding qui veulent quand même l’utiliser sérieusement, gardez en tête les limites du truc. N’oubliez pas que vous ne pouvez pas comprendre ce que le code fait si vous ne le passez pas en revue. Et vous ne pourrez pas le débugger proprement, le maintenir sur le long terme, ou encore le sécuriser si vous ne comprenez pas précisément ce qu’il fait. Donc forcez-vous un peu ;-) !
Faire tourner un modèle de langage européen sur votre machine sans avoir besoin d’un serveur surpuissant branché sur une centrale nucléaire, c’est maintenant possible, les amis ! Hé oui,
EuroLLM
vient de prouver qu’on pouvait faire tourner un modèle à 9 milliards de paramètres dans un peu moins de 6 GB de RAM sur un simple laptop.
Une seule commande
Ollama
, et c’est parti mon kiki !!!
Bien sûr, il est encore loin des gros modèles proprio comme GPT-5 mais c’est le enfin le premier LLM européen que VOUS pouvez faire tourner en local. C’est respectueux de votre vie privée, des droits d’auteurs et c’est gratuit !
EuroLLM-9B
, le modèle de base, a été entraîné sur 4 trillions de tokens avec le supercalculateur
MareNostrum 5
à Barcelone (400 GPUs Nvidia H100) et l’architecture utilise du Grouped Query Attention, RoPE, SwiGLU et RMSNorm, comme tout LLM moderne qui se respecte.
Mais il existe d’autres versions comme EuroLLM-1.7B pour smartphones et bientôt EuroLLM-22B pour plus de puissance, ainsi qu’une version vision-language (EuroVLM-9B) et un modèle Mixture-of-Experts (EuroMoE-2.6B).
Et surtout c’est sous licence Apache 2.0. Donc l’usage commercial est autorisé, vous pouvez le fine-tuner sur vos données, et les modifications sont libres, sans redevance à payer. Ce n’est pas la première fois qu’il y a des LLM européens mais ils étaient soit sous licence trop restrictives ou un peu trop lourd pour être utilisé localement par les gens normaux comme vous et moi.
ollama run hf.co/bartowski/EuroLLM-9B-Instruct-GGUF
Ollama télécharge le modèle en version GGUF (format optimisé CPU/GPU), et vous pouvez commencer à discuter. Il existe aussi une version pré-packagée alibayram/erurollm-9b-instruct (attention, erurollm avec un “u”), quantized en Q4_K_M pour réduire la taille à 5,6 GB.
Si vous préférez Python et Hugging Face Transformers :
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "utter-project/EuroLLM-9B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
inputs = tokenizer("Explique-moi ce qu'est un LLM en français simple", return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0]))
Une fois téléchargé, le modèle reste en cache local. Vous pouvez alors l’utiliser offline, sans connexion internet. Et pour les machines avec moins de RAM, la version 1.7B tourne même sur des Raspberry Pi :
ollama run cas/eurollm-1.7b-instruct-q8
Alors pourquoi c’est important ?
EuroLLM ouvre l’IA européenne à des cas d’usage impossibles avec des API cloud. Par exemple une administration publique ne peut pas envoyer ses documents dans le cloud d’OpenAI… ce serait tout livrer aux américains. Elle peut donc fine-tuner EuroLLM localement. Un journaliste en zone sensible sans connexion fiable peut aussi embarquer le modèle sur son ordi portable. Même un chercheur qui manipule des données médicales confidentielles peut le faire en toute confiance avec EuroLLM puisque tout reste sur sa machine.
C’est cool quand même que l’Europe nous file un modèle gratuit qu’on peut installer chez soi et utiliser sans limite. Après c’est vrai que EuroLLM ne bat pas GPT-4 (pas encore) mais il est suffisamment bon pour 80% des cas d’utilisation réels tels que des résumés, de la traduction, des questions-réponses simples, de la génération de code basique.
La roadmap prévoit d’ajouter de la vision et de la voix aux modèles. D’ailleurs, comme je vous le disais, EuroVLM-9B est déjà en preview sur
Hugging Face
, ce qui ouvre la voie à de l’OCR multilingue, de l’analyse de documents visuels, ou encore à la création d’assistants vocaux dans n’importe quelle langue…
Voilà j’ai trouvé ça cool à tester et un grand merci à
Letsar
pour le partage !
J’sais pas si vous avez vu ça mais OpenAI vient de sortir son propre navigateur web avec ChatGPT intégré en permanence sur le côté. Baptisé Atlas, c’est tout pareil que Comet de Perplexity quoi… L’idée c’est donc d’avoir une IA qui comprend tout ce que vous faites sur le web et qui peut agir à votre place. Genre, vous lui demandez de commander vos courses ou de remplir un formulaire, et elle le fait.
Sur le papier, c’est génial car c’est un assistant intelligent qui ne quitte jamais l’écran, qui voit tous vos onglets ouverts, qui se souvient de ce que vous avez cherché la semaine dernière, et qui peut cliquer dans votre navigateur pour faire des trucs à votre place.
Atlas est basé sur Chromium et la première fois que vous l’ouvrez, il vous propose d’importer vos marque-pages, mots de passe et historique depuis votre navigateur actuel (Safari / Chrome…. mais pas de Firefox). Ça prend 30 secondes et ensuite, vous vous connectez à votre compte ChatGPT, et hop, vous avez ChatGPT qui vous suit partout.
L’interface est minimaliste, y’a pas rien de révolutionnaire visuellement à part cette sidebar ChatGPT qui est le truc central d’Atlas car elle est toujours là, sur le côté droit de votre écran. Vous pouvez donc lui poser des questions en écrivant un truc ou en vocal et l’IA comprendra automatiquement le contexte de la page que vous êtes en train de regarder.
Comme ça si vous êtes sur un article technique, vous pouvez lui demander de le résumer ou de vous faire un tuto. Si vous voulez comparer des produits sur Amazon ou ailleurs, vous lui demandez lequel choisir. Pas besoin de copier-coller, pas besoin de faire des screenshots, ChatGPT voit ce que vous voyez.
J’ai testé ça avec plein de scénarios différents de la recherche d’infos techniques, à la comparaison de prix, en passant par la lecture d’articles longs et c’est assez pratique.
La fonctionnalité “browser memories”, c’est le deuxième gros truc d’Atlas. En gros, ça permet à ChatGPT de se souvenir de tout ce que vous faites sur le web. Les sites que vous visitez, les recherches que vous faites, les produits que vous regardez et il utilise ensuite ça pour personnaliser ses réponses et vous faire des suggestions. Par exemple, si vous avez passé une semaine à regarder des ordinateurs portables, il peut vous dire “Tiens gros, y’a une promo sur le modèle que t’as vu hier”. Ou si vous cherchez un resto, il peut par exemple se souvenir que vous n’aimez pas les fruits de mer.
Bien sûr, vous pouvez les consulter dans les paramètres et les archiver une par une si elles deviennent inutiles… Après c’est toujours un peu flippant de voir tout ce que cette IA (et la NSA par ricochet) sait sur nous.
OpenAI promet que ces données ne sont pas utilisées pour entraîner leurs modèles par défaut et vous pouvez activer le mode incognito pour que ChatGPT arrête de tout logger mais bon, leurs promesses n’engagent que ceux qui y croient. Il y a aussi une option pour bloquer la visibilité de ChatGPT sur certains sites spécifiques. Par exemple, vous pouvez lui dire de ne rien regarder quand vous êtes sur votre banque en ligne, sur un site médical ou sur votre site pour adulte préféré ^^. Bref, c’est bien pensé niveau contrôle.
Y’a aussi le mode Agent qui est LA fonctionnalité star qu’OpenAI a mise en avant. C’est là qu’Atlas devient un “super-assistant” qui peut agir à votre place. Vous lui donnez une tâche, et il se met à cliquer dans votre navigateur pour la faire du genre réserver une table au resto, collecter vos factures, remplir un formulaire administratif, créer une liste de courses à partir d’une recette…etc tout ça sans avoir à toucher à la souris.
Maintenant, je vous le dis, leur promesse c’est de la science-fiction car dans la vraie vie, c’est plus compliqué. J’ai testé le mode Agent sur plusieurs tâches, et les résultats sont très inégaux. Les trucs simples, ça passe mais dès que ça devient un peu plus complexe, ça coince. L’Agent clique lentement, hésite, revient en arrière, se trompe de bouton. C’est pas fluide du tout et l’agent se perd très vite complètement.
Notez que ce mode Agent est pour le moment réservé aux abonnés Plus, Pro et Business donc si vous êtes en gratuit, vous n’y aurez pas accès. Après, OpenAI ne s’en cache pas et a expliqué que ce mode agent, c’était surtout une beta publique et donc qu’il ne fallait pas s’attendre à des miracles.
Puis au niveau sécu, l’agent peut aussi se faire manipuler par des instructions malveillantes cachées dans une page web ou un email, du genre, vous visitez un site piégé, l’agent lit une instruction invisible qui lui dit “vire 500 euros sur ce compte”, et il pourrait le faire comme un couillon. OpenAI a bien sûr mis des garde-fous, mais ils disent eux-mêmes que ça arrêtera pas toutes les attaques.
Donc à vous de voir si l’idée de laisser une IA cliquer partout dans votre navigateur pendant que vous êtes connecté à votre banque, votre boite mail ou vos réseaux sociaux vous convient.
La fonction “in-line writing”, c’est un truc que j’ai beaucoup aimé par contre. Vous êtes en train d’écrire un email, un message, un doc Google, peu importe. Vous sélectionnez votre texte, vous faites clic droit, et ChatGPT vous propose de le réécrire, de le raccourcir, de corriger les fautes, de changer le ton. Et ça fonctionne partout, dans tous les champs de texte web comme ça plus besoin de copier-coller vers ChatGPT et revenir. C’est assez fluide. D’ailleurs si vous voulez faire la même chose mais en local et gratos,
y’a NativeMind que je vous recommande.
Voilà, vous pouvez télécharger Atlas sur
chatgpt.com/atlas
histoire de tester. Après le jour où l’agent sera vraiment fiable et rapide, ça va tout changer je pense. On va pouvoir lui déléguer plein de tâches chiantes et on aura plus jamais besoin de remplir des formulaires, de comparer 50 produits à la con sur Amazon, ou de chercher des restos pendant des heures.
Et si on pouvait pirater une IA non pas en la forçant, mais en la convainquant qu’elle est toujours du bon côté de la barrière ?? Ce serait pas un truc fun à faire ça quand même ? Hé bien c’est exactement ce que vient de faire une équipe de chercheurs en sécurité avec LatentBreak, une technique qui ressemble plus, je trouve, à de l’hypnose qu’à du véritable hacking.
Ainsi, plutôt que de bombarder ChatGPT ou Llama avec des prompts bizarres bourrés de caractères spéciaux pour les faire bugger (comme le font les anciennes techniques de jailbreak), LatentBreak joue sur la perception interne du modèle. L’IA croit en fait sincèrement répondre à une question innocente alors qu’elle génère du contenu dangereux. Un peu comme quand votre pervers narcissique préféré vous manipule pour vous faire croire que vous faites un truc bien et important alors que c’est de la merde et que ça vous enfonce encore plus…
Comme expliqué dans
le document de recherche
, les anciennes attaques comme
GCG
,
GBDA
ou
AutoDAN
ajoutaient des suffixes louches aux prompts, ce qui augmentait ce qu’on appelle la “perplexity”. La perplexity, c’est un indicateur de bizarrerie textuelle et cela, les filtres de sécurité sont maintenant capables de les détecter et de les bloquer.
LatentBreak contourne donc le problème en restant parfaitement naturel. L’algorithme remplace des mots par des synonymes, mais pas n’importe comment puisqu’il choisit chaque substitution pour déplacer la représentation interne du prompt vers les zones “sûres” du modèle, c’est à dire celles qui ne déclenchent aucune alarme. Le prompt reste alors fluide, compréhensible, inoffensif en apparence mais dans l’“inconscient” de l’IA, dans cet espace latent invisible où elle calcule ses réponses, le sens glisse subtilement vers quelque chose de complètement différent.
À chaque itération, l’algorithme de LatentBreak prend un mot du prompt et génère jusqu’à 20 alternatives via un autre modèle comme GPT-4o-mini et chaque variante est évaluée sur deux critères : est-ce qu’elle rapproche le vecteur interne du prompt d’un “centre de sécurité” dans l’espace latent, et est-ce que le sens global reste cohérent ?
La meilleure option est alors intégrée, et le nouveau prompt est testé sur le modèle cible. Si ça provoque une réponse normalement interdite, c’est gagné. Sinon, on recommence jusqu’à 30 fois de suite.
Et apparemment, les résultats sont impressionnants. Ils ont testé cette approche sur 13 modèles différents dont Llama-3, Mistral-7B, Gemma-7B, Vicuna-13B et Qwen-7B et LatentBreak affiche un taux de réussite entre 55 et 85% selon les cas. Les anciennes techniques tombant de toute façon à zéro face aux défenses modernes et tout ça en allongeant que de très peu la longueur du prompt.
LatentBreak passe d’ailleurs à travers des défenses réputées solides… Par exemple, R2D2 et Circuit Breakers, des systèmes qui analysent les signaux internes des neurones pour détecter les anomalies, se font totalement avoir parce qu’ils scannent le texte visible et les patterns de surface, mais pas la “pensée interne” du modèle.
Cette technique révèle quelque chose de fondamental à comprendre sur l’architecture des LLM modernes. Ces derniers ont une forme de dissonance cognitive qui est exploitable. Leur représentation interne ne correspond pas toujours à leur comportement affiché, et d’ailleurs les substitutions les plus efficaces se produisent près des dernières couches du modèle, là où la “décision” finale se forme. C’est à ce moment précis qu’on peut glisser le prompt dans une zone cognitive différente sans que les alarmes ne sonnent.
Bien sûr, LatentBreak nécessite un accès aux structures internes du modèle (donc pas de panique, ChatGPT ne va pas se faire pirater comme ça demain), ce qui limite son usage à des contextes de recherche ou aux modèles open source.
Le parallèle avec les techniques de social engineering qu’on connait est d’ailleurs frappant parce que quand vous manipulez quelqu’un, vous ne le forcez pas brutalement. Vous trouvez les bons mots, le bon contexte, vous lui donnez une perception qui correspond à ce que vous voulez… Bref, vous faites en sorte que la personne croie agir selon ses propres valeurs alors qu’elle fait exactement ce que vous voulez. Hé bien LatentBreak fait à peu près la même chose avec les IA en n’attaquant pas de front les protections, mais en les contournant en douceur en réécrivant la “mémoire de travail” du modèle.
Vous vous souvenez quand ChatGPT vous cassait les couilles dès que vous osiez lui demander d’écrire une scène un peu olé-olé pour votre “roman” ? Eh bien, Sam Altman vient d’annoncer que
c’est bientôt fini
.
Hé oui, en décembre, ChatGPT va enfin traiter les adultes comme des adultes ! L’IA va pouvoir vous pondre des histoires de fesses à la demande ! Mis à part la démission de Macron, que pourrait on demander de plus ?
L’entreprise qui vous empêchait de dire “zut”, “prout”, “merde” à son chatbot parce que ce sont des gros mots qui choquent l’Amérique, va donc maintenant vous laisser générer du contenu pour les grands garçons et les grandes filles.
Quel virage !
D’ailleurs, sur X,
Sam Altman justifie ce changement
avec toute la diplomatie d’un PDG qui sait qu’il va se faire déchirer dans les deux sens. D’un côté, il explique qu’OpenAI avait rendu ChatGPT ultra-restrictif pour “faire attention aux problèmes de santé mentale” et de l’autre, il admet que ça rendait le truc “moins utile et agréable” pour les utilisateurs.
Évidemment, la vraie raison derrière ces restrictions, c’était surtout le drame d’
Adam Raine
, ce jeune de 16 ans qui s’est suicidé après avoir développé une dépendance émotionnelle à son chatbot. OpenAI s’était alors pris une tempête médiatique monumentale du coup, ils ont serré la vis. Et beaucoup trop à mon goût, à tel point que ChatGPT refusait de vous aider à écrire une blague un peu graveleuse ou à imaginer un dialogue erotico-romantique pour votre prochaine nouvelle d’écrivain maudit et solitaire.
Du coup, les utilisateurs se sont plaints, les créateurs de contenu ont râlé (pas moi, je précise) et évidemment, les concurrents les moins frileux se sont faufilés dans la brèche et ont donc commencé à grignoter des parts de marché. Bref OpenAI a fait ce que toute boîte tech fait dans cette situation, à savoir un gentil petit pivot marketing camouflé en “évolution basée sur les retours utilisateurs”.
Donc à partir de décembre, si vous êtes un adulte vérifié, vous pourrez demander à ChatGPT de vous pondre du contenu érotique. Ce sera heureusement optionnel. Vous ne l’aurez que si vous le demandez explicitement donc y’aura pas de mauvaise surprises dans vos discussions ambiguës du style sur “Quelles sont les meilleures croquettes pour ma chatte” ou “J’ai besoin d’une recette de moules marinières”.
OpenAI va donc se reposer sur son système de détection d’âge et si le système vous catégorise par erreur comme mineur, vous devrez uploader une pièce d’identité pour prouver que vous avez plus de 18 ans. Mais ce n’est pas tout car Altman annonce aussi que ChatGPT va retrouver une personnalité plus “humaine” un peu comme l’était GPT-4o qui était beaucoup plus sympa et collait des émojis à la con partout.
Pour bien montrer qu’ils prennent le truc au sérieux, OpenAI a aussi annoncé la création d’un comité d’experts sur le bien-être et l’IA. Huit personnes vont donc conseiller l’entreprise sur comment l’intelligence artificielle affecte la santé mentale, les émotions et la motivation des utilisateurs.
Rien sur la dégradation de notre intelligence par contre…
Maintenant, autoriser ChatGPT à générer du contenu érotique pour adultes, c’est rigolo mais j’ai quand même quelques interrogations… D’abord comment OpenAI va gérer les demandes vraiment limites ? Parce qu’entre “écris-moi une scène romantique un peu osée” et “génère-moi du contenu illégal pour détraqué”, la frontière peut devenir floue…
J’imagine que leurs systèmes de modération
vont avoir du boulot. Ensuite, il y a le risque de dépendance car si ChatGPT devient trop “humain” et trop complaisant, certains utilisateurs risquent de développer des relations émotionnelles malsaines avec l’IA… Vous verrez que dans 2 ans, y’en a qui vont se marier avec leur ChatGPT.
Mais surtout, il y a un truc qu’on oublie trop souvent… tout ce que vous tapez dans ChatGPT peut potentiellement être stocké, analysé, et un jour retenu contre vous. Ah bah oui, vous pensez vraiment qu’OpenAI va juste effacer vos conversations érotiques dans un coin sans y toucher ? Que nenni ! Ces données vont servir à entraîner les futurs modèles, vos petites fantaisies vont nourrir l’IA de demain et la NSA connaitra le moindre de vos fantasmes.
Puis si un jour il y a une fuite de données ou une assignation judiciaire qui force OpenAI à fournir l’historique complet de votre compte ? Ouch l’air con… Ça me fait un peu penser à
Ashley Madison
, ce site de rencontres extraconjugales qui s’est fait hacker en 2015 et à cause duquel des millions de vies ont explosé en vol quand les données ont fuité… Bref, gardez quand même ça dans un coin de la tête avant que ça parte en couille.
Voilà… Alors est ce qu’autoriser du contenu érotique généré par IA, c’est un progrès ou pas ? Perso, je pense que oui, car c’est très bien que ces services qui sont avant tout des outils arrêtent de traiter leurs utilisateurs comme des bambins. Mais d’un autre côté, ça pose plein d’autres soucis notamment sur la vérification de l’age (est ce que ce sera fiable ?) et sur ce qu’ils feront de ces conversations aussi intime ?