Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

OpenAI passe en mode Cinquante Nuances d'IA

Par : Korben
16 octobre 2025 à 10:40

Vous vous souvenez quand ChatGPT vous cassait les couilles dès que vous osiez lui demander d’écrire une scène un peu olé-olé pour votre “roman” ? Eh bien, Sam Altman vient d’annoncer que c’est bientôt fini .

Hé oui, en décembre, ChatGPT va enfin traiter les adultes comme des adultes ! L’IA va pouvoir vous pondre des histoires de fesses à la demande ! Mis à part la démission de Macron, que pourrait on demander de plus ?

L’entreprise qui vous empêchait de dire “zut”, “prout”, “merde” à son chatbot parce que ce sont des gros mots qui choquent l’Amérique, va donc maintenant vous laisser générer du contenu pour les grands garçons et les grandes filles.

Quel virage !

D’ailleurs, sur X, Sam Altman justifie ce changement avec toute la diplomatie d’un PDG qui sait qu’il va se faire déchirer dans les deux sens. D’un côté, il explique qu’OpenAI avait rendu ChatGPT ultra-restrictif pour “faire attention aux problèmes de santé mentale” et de l’autre, il admet que ça rendait le truc “moins utile et agréable” pour les utilisateurs.

Évidemment, la vraie raison derrière ces restrictions, c’était surtout le drame d’ Adam Raine , ce jeune de 16 ans qui s’est suicidé après avoir développé une dépendance émotionnelle à son chatbot. OpenAI s’était alors pris une tempête médiatique monumentale du coup, ils ont serré la vis. Et beaucoup trop à mon goût, à tel point que ChatGPT refusait de vous aider à écrire une blague un peu graveleuse ou à imaginer un dialogue erotico-romantique pour votre prochaine nouvelle d’écrivain maudit et solitaire.

Du coup, les utilisateurs se sont plaints, les créateurs de contenu ont râlé (pas moi, je précise) et évidemment, les concurrents les moins frileux se sont faufilés dans la brèche et ont donc commencé à grignoter des parts de marché. Bref OpenAI a fait ce que toute boîte tech fait dans cette situation, à savoir un gentil petit pivot marketing camouflé en “évolution basée sur les retours utilisateurs”.

Donc à partir de décembre, si vous êtes un adulte vérifié, vous pourrez demander à ChatGPT de vous pondre du contenu érotique. Ce sera heureusement optionnel. Vous ne l’aurez que si vous le demandez explicitement donc y’aura pas de mauvaise surprises dans vos discussions ambiguës du style sur “Quelles sont les meilleures croquettes pour ma chatte” ou “J’ai besoin d’une recette de moules marinières”.

OpenAI va donc se reposer sur son système de détection d’âge et si le système vous catégorise par erreur comme mineur, vous devrez uploader une pièce d’identité pour prouver que vous avez plus de 18 ans. Mais ce n’est pas tout car Altman annonce aussi que ChatGPT va retrouver une personnalité plus “humaine” un peu comme l’était GPT-4o qui était beaucoup plus sympa et collait des émojis à la con partout.

Pour bien montrer qu’ils prennent le truc au sérieux, OpenAI a aussi annoncé la création d’un comité d’experts sur le bien-être et l’IA. Huit personnes vont donc conseiller l’entreprise sur comment l’intelligence artificielle affecte la santé mentale, les émotions et la motivation des utilisateurs. Rien sur la dégradation de notre intelligence par contre…

Maintenant, autoriser ChatGPT à générer du contenu érotique pour adultes, c’est rigolo mais j’ai quand même quelques interrogations… D’abord comment OpenAI va gérer les demandes vraiment limites ? Parce qu’entre “écris-moi une scène romantique un peu osée” et “génère-moi du contenu illégal pour détraqué”, la frontière peut devenir floue… J’imagine que leurs systèmes de modération vont avoir du boulot. Ensuite, il y a le risque de dépendance car si ChatGPT devient trop “humain” et trop complaisant, certains utilisateurs risquent de développer des relations émotionnelles malsaines avec l’IA… Vous verrez que dans 2 ans, y’en a qui vont se marier avec leur ChatGPT.

Mais surtout, il y a un truc qu’on oublie trop souvent… tout ce que vous tapez dans ChatGPT peut potentiellement être stocké, analysé, et un jour retenu contre vous. Ah bah oui, vous pensez vraiment qu’OpenAI va juste effacer vos conversations érotiques dans un coin sans y toucher ? Que nenni ! Ces données vont servir à entraîner les futurs modèles, vos petites fantaisies vont nourrir l’IA de demain et la NSA connaitra le moindre de vos fantasmes.

Puis si un jour il y a une fuite de données ou une assignation judiciaire qui force OpenAI à fournir l’historique complet de votre compte ? Ouch l’air con… Ça me fait un peu penser à Ashley Madison , ce site de rencontres extraconjugales qui s’est fait hacker en 2015 et à cause duquel des millions de vies ont explosé en vol quand les données ont fuité… Bref, gardez quand même ça dans un coin de la tête avant que ça parte en couille.

Voilà… Alors est ce qu’autoriser du contenu érotique généré par IA, c’est un progrès ou pas ? Perso, je pense que oui, car c’est très bien que ces services qui sont avant tout des outils arrêtent de traiter leurs utilisateurs comme des bambins. Mais d’un autre côté, ça pose plein d’autres soucis notamment sur la vérification de l’age (est ce que ce sera fiable ?) et sur ce qu’ils feront de ces conversations aussi intime ?

Perso, je ne suis pas en méga confiance…

Source

YouTube vous balance une dose de vidéos marrantes parce que vous êtes trop sérieux

Par : Korben
2 septembre 2025 à 07:42

Comme tous les jours, vous êtes sur YouTube, très concentré en plein marathon de vidéos sur les élections ou les conflits géopolitiques, et SOUDAIN, l’algorithme décide de vous offrir une pause. Mais pas une simple pause publicitaire, non. Une pause thérapeutique ! Vous vous retrouvez alors devant une compilation de chiens qui sautent et se gamellent ou un best-of de foirages en skateboard.

C’est une étude menée par l’Université de l’Arkansas qui a analysé pas moins de 685 842 vidéos courtes. Les chercheurs se sont ainsi concentrés sur trois thèmes politiques : les élections de 2024 à Taiwan, le conflit en mer de Chine méridionale et une catégorie générale de contenus politiques. Et vous savez quoi ? Il semblerait que YouTube Shorts guide activement les utilisateurs du contenu politique vers des vidéos de divertissement.

En gros, l’algorithme joue le rôle de baby-sitter numérique et décide que vous avez eu votre dose de sérieux pour la journée.

Pour réalisé cette étude, les chercheurs ont collecté 2 800 vidéos et testé trois scénarios de visionnage : 3 secondes (le scroll rapide), 15 secondes (l’intérêt modéré), et le visionnage complet (vous êtes vraiment accro). Ensuite, ils ont utilisé GPT-4o d’OpenAI pour classer les titres et les transcriptions par sujet, pertinence et ton émotionnel. L’IA qui analyse l’IA qui nous manipule… On vit vraiment dans le futur, les amis.

Mais pourquoi YouTube fait ça ? Les chercheurs pensent que ce n’est pas de la censure intentionnelle. Non, c’est plus basique que ça… En fait, ça augmente l’engagement et ça rapporte plus d’argent car une personne qui regarde des vidéos de chatons reste plus longtemps sur la plateforme qu’une personne déprimée par les actualités politiques. Et donc plus vous restez, plus YouTube gagne de pognon.

Récemment, YouTube a assoupli ses politiques de modération, doublant carrément le seuil de contenu problématique autorisé avant suppression. Auparavant, un quart de contenu douteux suffisait pour dégager une vidéo mais maintenant, il en faut la moitié. YouTube cherche donc un équilibre où il y aurait plus de tolérance pour le contenu politique controversé, mais avec un système de “décompression” par le divertissement.

D’un autre côté, les recherches de UC Davis montrent un aspect plus sombre de la plateforme. Leurs “sock puppets” (100 000 comptes automatisés créés pour l’étude) ont regardé près de 10 millions de vidéos. Et ce qu’il en ressort c’est que l’algorithme peut créer un “effet de boucle” où les utilisateurs se retrouvent piégés dans du contenu de plus en plus extrême. Mais du coup, il semblerait que YouTube ait trouvé la solution en cassant la boucle avec des vidéos de pandas qui éternuent.

Voilà, alors pendant que certains s’inquiètent de la radicalisation politique sur les réseaux sociaux, YouTube a apparemment décidé de jouer les psychologues amateurs, proposant automatiquement du contenu humoristique aux utilisateurs qui consomment beaucoup de vidéos politiques. C’est mignon, non ?

Alors est-ce que YouTube a vraiment le droit de décider de quand nous avons eu assez de politique ? Est-ce que c’est de la manipulation bienveillante, du bon vieux paternalisme algorithmique ? Et surtout, est-ce que ça marche vraiment ?

Je passe très peu de temps à regarder des vidéos sur Youtube, donc je peux pas trop vous dire… Surtout que les news déprimantes ET les best-of de chutes spectaculaires ou de chaton mignon, c’est pas des trucs que je regarde…

Maintenant, peut-être que YouTube a raison… Peut-être qu’on a tous besoin qu’un algo nous rappelle de faire une pause dans tout ce contenu stressant de merde et de regarder quelque chose de plus léger… un peu d’humour forcé, ça ne peut pas faire de mal. Faudrait que Twitter et BlueSky fasse la même, parce que quand je vois la quantité de grincheux là bas, je me dis qu’ils ont aussi besoin de se marrer un peu de temps en temps, les pauvres… ^^

Bref, la prochaine fois que YouTube vous propose une vidéo compilation de conneries après votre marathon d’analyses politiques, vous saurez que ce n’est pas un hasard. C’est l’algorithme qui prend soin de votre santé mentale pour que vous restiez encore plus longtemps pour voir encore plus de pubs !!

Source

❌
❌