Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 26 avril 2024Flux principal

Drake retire en vitesse un titre utilisant un deepfake sonore de Tupac pour attaquer Kendrick Lamar

26 avril 2024 à 15:40

Le rappeur canadien Drake a publié une chanson utilisant une fausse voix de Tupac. Il a fait de même avec Snoop Dogg. Sous la menace de représailles judiciaires, il a fini par retirer son titre, qui attaquait son rival Kendrick Lamar.

Ce « produit hyper intelligent » était en fait un site web

26 avril 2024 à 12:12

Le Rabbit R1, un des premiers « gadgets IA », ne fait pas l'unanimité auprès des premiers testeurs. Comme le Humane Ai Pin, il manque de pertinence par rapport au smartphone, n'est pas pratique à utiliser et contient de nombreux bugs. Pire, il mentirait sur son fonctionnement.

À partir d’avant-hierFlux principal

Cette technologie vous simplifie la vie au quotidien et vous n’en avez même pas conscience [Sponso]

Par : humanoid xp
25 avril 2024 à 12:15

Cet article a été réalisé en collaboration avec OVHcloud

Elle est partout : dans nos mails, dans nos smartphones, dans notre vie quotidienne numérique. Et pourtant, vous ne la voyez pas. Qui ? L'intelligence artificielle bien sûr !

Cet article a été réalisé en collaboration avec OVHcloud

Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

En savoir plus

Nvidia prend de l’avance sur l’IA grâce à ce nouveau coup de maître

Nvidia entend bien accentuer ses efforts sur l'intelligence artificielle, que ce soit pour ses cartes graphiques ou ses data centers à destination du monde professionnel. Pour cela, la marque au caméléon a récemment acquis Run:AI, une start-up basée en Israël et spécialisée dans la gestion de charges de travail IA.

L’article Nvidia prend de l’avance sur l’IA grâce à ce nouveau coup de maître est apparu en premier sur Tom’s Hardware.

full

thumbnail

Adobe VideoGigaGAN – L’IA qui transforme vos vidéos floues en HD !

Par : Korben
25 avril 2024 à 10:37

Vous avez une vieille vidéo toute pourrie, floue à souhait, qui date de Mathusalem et bien avec VideoGigaGAN d’Adobe, elle va se transformer en une magnifique séquence HD, avec des détails si nets que vous pourrez compter les poils de nez des gens qui sont dessus !

VideoGigaGAN est ce qu’on appelle un modèle d’IA génératif. En gros, ce machin est capable de deviner les détails manquants dans une vidéo pourrave pour la rendre méga classe. Les petits gars d’Adobe ont balancé des exemples sur leur GitHub et franchement, c’est impressionnant. On passe d’une vidéo degueulasse à un truc ultra net, avec des textures de peau hallucinantes et des détails de fou !

En plus, cette IA est capable d’upscaler les vidéos jusqu’à 8 fois leur résolution d’origine, par contre, faut pas s’emballer car pour le moment, c’est juste une démo de recherche et y’a pas encore de date de sortie officielle. Mais connaissant Adobe, y’a moyen que ça finisse dans Premiere Pro un de ces quatre. Je vais pouvoir améliorer mes vidéos tournées à l’époque au format 3GP \o/.

D’ici là, va falloir continuer à se taper des vidéos de chat toutes pixelisées sur les réseaux sociaux.

Source

OpenELM – Apple sort ses modèles IA légers et open-source

Par : Korben
25 avril 2024 à 10:19

Vous connaissez OpenELM ? Non, normal, ça vient de sortir. Et c’est une famille de modèles IA open-source made in Apple conçus pour tourner directement sur vos appareils, sans passer par le cloud. En gros, c’est de l’IA maison dans nos iPhone, iPad et Mac…etc.

OpenELM combine plusieurs modèles de langage naturel (LLMs) utilisant des algorithmes évolutionnistes qui exploitent les principes techniques suivants :

  1. Layer-wise scaling strategy : Cette stratégie consiste à allouer les paramètres dans les couches d’un modèle transformeur pour améliorer l’exactitude. Les modèles sont pré-alourés avec un budget de paramètres de 270 millions, 450 millions, 1,1 milliard et 3 milliards.
  2. Pré-entraînement : Les modèles ont été pré-entraînés à l’aide d’une combinaison de datasets, incluant une sous-ensemble de Dolma v1.6, RefinedWeb, deduplicated PILE et une sous-ensemble de RedPajama. Ce dataset contient environ 1,8 trillion de tokens.
  3. Evolutionary algorithms : Les algorithmes évolutionnistes sont utilisés pour combiner les modèles LLM et améliorer l’exactitude. Cela permet d’exploiter les forces combinées des modèles pré-alourés et d’améliorer leur précision.

Alors évidemment, Apple arrive un peu après la bataille dans l’IA, pendant que Microsoft et Google déboulent à fond la caisse. Mais bon, mieux vaut tard que jamais, et puis ils compensent avec du lourd, soit 8 modèles OpenELM au total, dont 4 pré-entraînés avec CoreNet et 4 fine-tunés. Et avec leur stratégie de scaling par couche ça optimise à fond l’allocation des paramètres.

Allez, je traduits… En gros, ça veut dire qu’ils sont hyper efficaces et précis. Prenez le modèle à 1 milliard de paramètres et bien bah il explose un modèle équivalent comme OLMo de 2,36% en précision, avec 2 fois moins de tokens en pré-entraînement. Et ce qui est top, c’est qu’Apple balance tout : code, logs d’entraînement, configuration…etc et pas juste le modèle final. Et vu qu’ils utilisent des datasets publics, c’est top en matière de transparence et vérification des biais.

En tout cas, une chose est sûre, avec OpenELM, Apple nous prouve qu’ils sont dans la course, et qu’ils comptent bien mettre le paquet sur l’IA

Et Merci à Letsar pour l’info, c’est lui qui m’a mis la puce à l’oreille sur OpenELM. Tu gères !

Source

L’IA du MIT qui prédit les actions humaines

Par : Korben
24 avril 2024 à 20:00

Imaginez un monde où les ordinateurs pourraient prédire ce que vous allez faire avant même que vous ne le fassiez. Ça peut sembler tout droit sorti d’un film de science-fiction du style de Minority Report, mais les chercheurs du célèbre MIT (Massachusetts Institute of Technology) sont en train de rendre ça possible ! En effet, ils ont mis au point un modèle d’IA (intelligence artificielle) qui est capable d’analyser les limitations d’un agent, qu’il soit humain ou artificiel, pour en déduire ses actions futures les plus probables.

Dingue, non ?

Mais comment ce modèle s’y prend-il pour jouer les madame Irma ? En fait, tout est une question de limites. Nan, je ne parle pas des limites de vitesse ou des dates de péremption, hein. Je parle des contraintes qui pèsent sur un agent peu importe sa nature, biologique ou numérique.

Prenons un exemple concret : Vous êtes en train de jouer aux échecs contre un ordinateur. Vous avez vos propres contraintes : votre niveau de jeu, votre connaissance des ouvertures et des fins de partie, votre capacité à anticiper les coups de l’adversaire… Bref, tout un tas de facteurs qui limitent vos possibilités d’action. Eh bien, c’est exactement ce que le modèle d’IA du MIT analyse !

En se basant sur ces fameuses limites, il est capable d’inférer les coups que vous avez le plus de chances de jouer. Pas besoin d’être Garry Kasparov pour comprendre à quel point c’est bluffant. Votre ordinateur sera bientôt meilleur que vous aux échecs… et dans plein d’autres domaines !

Mais attention, le modèle du MIT ne prétend pas prédire l’avenir avec une précision de 100%. Il s’agit plutôt d’identifier des tendances et des schémas de comportement en fonction des limitations d’un agent. Ça reste néanmoins un outil très puissant pour anticiper les actions les plus probables.

D’ailleurs, les applications de cette technologie vont bien au-delà des jeux de société. Je pense par exemple au voitures autonomes qui pourraient anticiper les mouvements des piétons et des autres véhicules, des assistants virtuels qui sauraient exactement ce que vous allez leur demander avant même que vous n’ouvriez la bouche, des robots industriels capables de s’adapter en temps réel aux changements de leur environnement… Les possibilités sont infinies !

Bien sûr, tout cela soulève aussi son lot de questions éthiques. Est-ce qu’on a vraiment envie que les machines lisent dans nos pensées comme dans un livre ouvert ? Est-ce que ça ne risque pas de créer de sacrés problèmes de vie privée et de manipulation ? Imaginez que votre enceinte connectée décide de vous commander une pizza quatre fromages parce qu’elle a deviné que vous aviez un petit creux… Flippant, non ?

Mais bon, on n’en est pas encore là. Pour l’instant, les chercheurs du MIT sont encore en train de plancher sur leur modèle pour le perfectionner et étendre ses capacités. Et croyez-moi, c’est loin d’être un long fleuve tranquille ! L’IA a beau faire des progrès de géant, prédire le comportement humain reste un sacré défi. On est tellement imprévisibles et irrationnels, nous autres mortels…

En attendant de pouvoir déléguer toutes nos décisions à une machine, le modèle du MIT nous offre un aperçu de ce que pourrait être le futur de l’interaction homme-machine. Un futur où les ordinateurs nous comprendraient mieux que nous-mêmes, pour le meilleur et pour le pire. Perso, j’oscille entre fascination et inquiétude.

Et vous ?

Source

L’IA vous rend déjà la vie plus simple, c’est juste que vous ne le voyez pas [Sponso]

Par : humanoid xp
25 avril 2024 à 07:47

Cet article a été réalisé en collaboration avec OVHcloud

L’IA est partout ou presque : dans nos mails, dans nos smartphones, dans notre vie quotidienne numérique. Et c’est justement quand elle est invisible qu’elle est le plus pratique.

Cet article a été réalisé en collaboration avec OVHcloud

Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

En savoir plus

Apple publie OpenELM, le modèle de langage open source que personne n’attendait

24 avril 2024 à 17:29

Décliné en quatre versions, le modèle de langage OpenELM est la première approche open source d'Apple sur le terrain de l'intelligence artificielle générative. La marque, habituée au secret, va-t-elle aborder une stratégie différente face à OpenAI ?

4 questions sur Albert, le chatbot 100 % souverain de la France

24 avril 2024 à 17:22

cocorico coq

« La France est le premier pays européen à inaugurer une IA 100 % souveraine et à la mettre au service de nos services publics », a fait savoir le Premier ministre Gabriel Attal le 23 avril. Cette IA, c'est Albert, un chatbot pour appuyer l'administration.

Qui se cache derrière « la fausse Voix » de Secret Story, accusée d’être un robot ?

24 avril 2024 à 10:35

La saison 12 de Secret Story, dix-sept ans après le lancement de l'émission de téléréalité, remplace la voix masculine originelle par une voix féminine mystérieuse, plus douce et presque robotique. La nouvelle voix, qui est en fait une « fausse voix », est-elle incarnée par une comédienne ou une IA ?

Photoshop propulse le copier-coller d’images à un tout autre niveau

23 avril 2024 à 11:00

Le modèle Adobe Firefly, qui permet de générer des images, va s'enrichir de plusieurs fonctions importantes, dont la possibilité d'importer une image pour s'en inspirer. Les prompts ultra-détaillés sont de l'histoire ancienne.

Cet accident de voiture Tesla n’a jamais eu lieu

22 avril 2024 à 13:03

voiture factice une midjourney

Une photo ultra-réaliste créée par IA a été partagée sur Reddit. Bien que des internautes aient pu repérer des bizarreries en l'analysant de près, ce cliché constitue un nouvel avertissement : il devient de plus en plus difficile de repérer les visuels factices.

Apple a un plan pour rendre le Siri d’iOS 18 plus rapide que ChatGPT

22 avril 2024 à 10:47

En retard sur l'IA générative, Apple pourrait tout miser sur un modèle de langage opérable hors ligne, qui ne collecterait aucune donnée sur des serveurs. iOS 18 devrait introduire des fonctions astucieuses, sans rivaliser directement avec ChatGPT.

La base de données des incidents d’IA – Bugs, dérapages et leçons à tirer

Par : Korben
22 avril 2024 à 09:00

Pendant qu’une utopie où les véhicules autonomes, les assistants virtuels et les systèmes de recommandation se profile à l’horizon, force est de constater que l’intelligence artificielle n’en est encore qu’à ses balbutiements. La promesse d’un monde meilleur se heurte à la dure réalité des incidents causés par ces systèmes dits « intelligents », déployés trop rapidement dans notre environnement.

C’est là qu’intervient la base de données des incidents d’IA (AIID), véritable mémoire collective répertoriant les bugs, plantages et autres dérapages de l’IA lorsqu’elle est lâchée dans la nature. Tel un Guinness Book des foirages technologiques, elle recense déjà plus de 1000 cas, des plus anodins aux plus tragiques :

  • – un taxi sans chauffeur Waymo qui emboutit un cycliste en plein San Francisco
  • – un deepfake audio d’Imran Khan appelant au boycott des élections au Pakistan pour tromper les électeurs
  • – de fausses images de Donald Trump entouré d’électeurs noirs générées par IA pour influencer le vote des afro-américains
  • – et le pire de tous (ou pas) : des collégiens de Beverly Hills qui créent de fausses photos dénudées de leurs camarades grâce à l’IA !

Bref, c’est la foire aux casseroles dans le merveilleux monde de l’IA et il était temps que quelqu’un dresse l’inventaire de ces dérapages en tout genre. Mais au-delà du simple folklore, la mission de l’AIID est d’apprendre de ces échecs pour bâtir des IA plus sûres, à l’image de ce qui se fait dans l’aéronautique ou la cybersécurité.

La base s’enrichit chaque jour grâce aux signalements de la communauté. Chacun peut ainsi apporter sa pierre à l’édifice en soumettant de nouveaux incidents, triés et classés pour en dégager des tendances. L’idée est d’arriver à une définition partagée de ce qu’est un « incident d’IA » et d’en tirer des leçons pour l’avenir.

Car n’en déplaise à Elon Musk ou à Mark Zuckerberg, le futur de l’IA ne se fera pas sans règles ni garde-fous. Pour que la révolution intelligente profite au plus grand nombre, elle doit impérativement s’accompagner d’une démarche éthique et responsable. C’est précisément la mission du Responsible AI Collaborative, l’organisation derrière l’AIID, qui rassemble chercheurs, entrepreneurs et experts du monde entier.

D’ailleurs, vous aussi, vous pouvez contribuer ! Et ils ont de grandes ambitions puisque la prochaine étape sera d’intégrer les incidents dans des outils de test pour reproduire les scénarios à risque et s’entraîner à y faire face. Une sorte de « crash test » géant pour IA en quelque sorte !

À terme, l’objectif est de faire de l’AIID un outil incontournable pour tous les acteurs de l’écosystème : Chercheurs, régulateurs, industriels… Car ne nous y trompons pas, la course à l’IA ne fait que commencer et les incidents risquent de se multiplier si nous n’y prenons pas garde.

D’ici là, votre mission si vous l’acceptez sera de garder un oeil sur ce grand capharnaüm de l’IA et de signaler sans relâche les anomalies que vous constaterez ! Car après tout, la sécurité de ces systèmes est l’affaire de tous et rien ne vaut la vigilance humaine pour déjouer les bugs les plus retors.

3 astuces de cybersécurité pour repérer un deepfake lors d’une visioconférence

21 avril 2024 à 20:02

Les premières escroqueries à base de deepfake ont fait la une des médias. Si ces arnaques restent rares, les experts en cybersécurité invitent déjà les employés à retenir quelques règles pour repérer ces faux intervenants.

3 astuces de cybersécurité pour repérer un deepfake lors d’une visioconférence

21 avril 2024 à 20:02

Les premières escroqueries à base de deepfake ont fait la une des médias. Si ces arnaques restent rares, les experts en cybersécurité invitent déjà les employés à retenir quelques règles pour repérer ces faux intervenants.

L’armée américaine a organisé un combat aérien entre un pilote et une IA

Par : Aurore Gayte
20 avril 2024 à 09:40

Un exercice de combat aérien a été organisé par l'armée américaine entre un pilote humain et ... une intelligence artificielle. S'il s'agit du premier test du genre, cela fait des années que l'armée américaine test l'utilisation d'IA avec des avions de chasse.

❌
❌