Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 27 mars 2024Flux principal

Le réalisateur du « clip IA » de Bigflo & Oli nous en raconte les coulisses

27 mars 2024 à 12:12

En deux jours, plus de 200 000 personnes ont déjà vu le dernier clip de Bigflo & Oli sur YouTube. Les rappeurs ont fait le choix d'utiliser l'intelligence artificielle Stable Diffusion pour générer une dizaine de milliers d'images qui illustrent leurs paroles. Numerama a interviewé son réalisateur.

Danswer – Posez des questions à vos documents directement dans Slack et compagnie

Par : Korben
27 mars 2024 à 09:00

Je pense qu’après tous les articles que j’ai écrit au sujet de l’IA, vous commencez à connaitre le concept de RAG (retrieval augmented generation), vous savez qu’il est possible de donner à bouffer à une IA, tout un tas de documents pour ensuite discuter avec celle-ci en utilisant le contenu comme base de connaissance.

Cela permet de poser des questions en langage naturel sur la documentation fournie. Y’a plein d’outils qui permettent de faire ça, et dernièrement, je vous ai présenté PDFToChat ou Reor qui font ça.

Et aujourd’hui, j’aimerais vous faire découvrir une solution open source de recherche unifiée nommée Danswer. Cet outil intègre plusieurs fonctionnalités essentielles, dont la recherche de documents et les réponses basées sur l’IA à partir des requêtes en langage naturel. Il se connecte également à tous les outils de travail courants, tels que Google Drive, Confluence, Github, Notion, Slack et bien d’autres. Il offre aussi une prise en charge de la discussion comme un ChatGPT qui aurait accès à vos ressources de connaissances privées. Vous pouvez même créer des assistants IA personnalisables avec différents prompts et jeux de données.

Cela permet de couvrir tout un tas de cas d’usages tels quel : accélération du support client et réduction des délais d’escalade, amélioration de l’efficacité de l’ingénierie grâce à une documentation et des historiques de code faciles à trouver, préparation des équipes de vente pour des appels plus efficaces, suivi des demandes et priorités des clients pour les équipes produit, et facilitation de la résolution autonome des problèmes liés aux services informatiques, à l’intégration et aux ressources humaines. #BurnoLeMaireLoveZeCapitalizme

Voici ce que ça donne une fois installé :

Vous pouvez même le connecter au modèle de langage LLM de votre choix (en local ou non) pour une solution entièrement cloisonnée. Il se déploie facilement avec une seule commande Docker Compose et peut être hébergé n’importe où. Vous pouvez également l’exécuter avec Kubernetes.

Pour l’installer rien de plus simple, il vous faut d’abord cloner le dépôt de Danswer :

git clone https://github.com/danswer-ai/danswer.git

ensuite, placez vous dans le dossier contenant le fichier de description du docker compose :

cd danswer/deployment/docker_compose

Puis y’a plus qu’à lancer le bousin :

docker compose -f docker-compose.dev.yml -p danswer-stack up -d --pull always --force-recreate

Ça peut prendre un quart d’heure, voire plus, selon votre connexion puisque Danswer a besoin de télécharger des modèles pour fonctionner.

Ensuite, y’a plus qu’à lancer un navigateur vers http://localhost:3000.

Ensuite pour apprendre à l’utiliser et le customiser, toute la documentation est là.

Merci à Lorenper

On sait enfin quand Apple annoncera iOS 18 et sa réponse à ChatGPT

26 mars 2024 à 19:28

La WWDC, le traditionnel événement d'Apple dédié aux développeurs, aura lieu du 10 au 14 juin. La marque devrait y dévoiler plusieurs mises à jour pour ses systèmes d'exploitation, en plus de nouveautés liées à l'intelligence artificielle.

À partir d’avant-hierFlux principal

GPT-3.5 champion de Street Fighter III

Par : Korben
26 mars 2024 à 15:32

J’espère que vous êtes en forme et prêts à en découdre, car aujourd’hui on va parler d’un sujet marrant : GPT-3.5 Turbo d’OpenAI est devenu le nouveau champion toutes catégories de Street Fighter III !

Non, j’ai rien fumé, il y a bien une IA qui a mis la pâtée à tous ses adversaires lors d’un tournoi un peu spécial.

En effet, la semaine dernière, lors du Mistral AI Hackathon à San Francisco, une équipe de passionnés a eu l’idée de génie d’organiser un tournoi un peu particulier. : Faire s’affronter différents modèles de langage sur le cultissime jeu de baston Street Fighter III, pour voir lequel allait sortir vainqueur.

Parce que bon, c’est bien beau de savoir faire la conversation ou générer des images moches, mais quand il s’agit d’envoyer des tatanes dans la tronche, il faut être un peu plus réactif !

Et c’est là que notre pote GPT-3.5 sort les muscles et s’en sort très bien. Contrairement aux algorithmes d’apprentissage par renforcement (deep learning) qui se contentent bêtement d’accumuler des points en fonction de leurs actions, les modèles de langage comme GPT sont capables de comprendre un contexte et d’agir en conséquence.

En gros, ils analysent ce qu’il se passe à l’écran, les mouvements des personnages, leur barre de vie… Et en fonction de ça, ils décident quelle attaque lancer. Un peu comme un joueur humain en fait, sauf qu’eux n’ont pas besoin de café pour rester concentrés.

Les premières bagarres ont opposé différentes versions du modèle Mistral, dans des combats endiablés dignes des plus grands shōnens. Mais très vite, l’équipe a décidé de corser un peu les choses en invitant OpenAI et ses modèles GPT-3.5 et GPT-4 dans l’arène. Et là, mes amis, ça a commencé à sentir le roussi pour la concurrence !

Les poings ont volé, les combos se sont enchaînés, les contres se sont succédés à un rythme infernal. Un vrai feu d’artifice d’uppercuts, de coups spéciaux et de provocations bien senties. Mais au final, après des dizaines de combats acharnés, c’est bien GPT-3.5 (et plus précisément sa dernière version « Turbo ») qui est ressorti vainqueur ! La médaille d’argent revient à Mistral-small-2042, qui a réussi l’exploit de coiffer sur le poteau un modèle GPT-4 en accès anticipé.

Tout ça pour dire que si vous voulez vous mesurer à ces champions, c’est tout à fait possible ! Le code source du projet est disponible sur Github, et vous n’avez même pas besoin d’un supercalculateur pour faire tourner tout ça. Il vous faudra juste dénicher une ROM de jeu de baston 2D ou 3D old school, et le tour est joué. Perso j’ai hâte de voir ce que ça donne sur un bon vieux Tekken 3…

Pour installer et tester LLM Colosseum :

  1. Suivez les instructions de la documentation DIAMBRA, l’outil qui permet de faire jouer les LLM
  2. Téléchargez la ROM et placez-la dans ~/.diambra/roms
  3. Clonez le dépôt de llm coloseum et installez les paquets Python requis avec la commande pip3 install -r requirements.txt
  4. Créez un fichier nommé .env et copiez-y le contenu du fichier .env.example
  5. Lancez le programme avec la commande make run

Blague à part, cette expérience montre bien le potentiel hallucinant des modèles de langage pour les jeux vidéo. On peut tout à fait imaginer des PNJ avec lesquels on pourrait interagir de façon totalement naturelle et immersive, des adversaires capables de s’adapter à votre style de jeu et de vous surprendre… Bref, de quoi révolutionner complètement notre façon de jouer ! Après, faudra quand même faire gaffe à pas trop les énerver, on a bien vu ce que ça donnait quand on laissait GPT-3.5 jouer à des wargames… Boum, plus de planète !

Allez, je vous laisse, faut que je retourne taper Zangief moi.

Merci à Lorenper pour l’info et à très vite pour de nouvelles aventures.

Reor – L’appli magique de prise de notes boostée à l’IA locale et gratuite

Par : Korben
25 mars 2024 à 09:00

Dispo sous Windows, Linux et macOS (Intel et Silicon), Reor est un outil de prise de notes markdown capable de s’auto-organiser. Cela signifie que l’outil utilise de l’IA localement pour vous aider à mettre de l’ordre dans vos idées.

C’est assez ouf puisque ça vous fera gagner un max de temps en reliant automatiquement vos idées, mais également en répondant à toutes vos questions en se basant sur vos notes. Reor offre également un moteur de recherche sémantique et le tout est stocké localement, ce qui évitera que vos données ne soient pompées.

Reor tire parti des géants tels que Llama.cpp, Transformers.js et LanceDB pour permettre à la fois aux modèles LLM et d’inférences de s’exécuter localement. Il est également possible de se connecter à des API compatibles OpenAI si vous le désirez.

Alors, comment fonctionne cette auto-organisation ?

En réalité, chaque note que vous écrivez est fragmentée et intégrée dans une base de données vectorielle interne. Les notes connexes sont automatiquement reliées par la similarité vectorielle. De plus, la base de Q&R alimentée par les LLM fonctionne sur un principe de RAG (Retrieval-Augmented Generation) sur le corpus de notes que vous lui avez donné. Exactement comme ce qu’on peut faire aujourd’hui avec des PDF et des outils comme PDFtoChat.

Pour commencer, rien de plus simple : il vous suffit de télécharger Reor et de l’installer comme n’importe quelle autre application. Notez que pour l’instant, l’application ne télécharge pas les modèles pour vous, vous devrez donc télécharger manuellement votre modèle de choix au format GGUF et l’importer dans l’outil. Cela peut être Mistral ou Llama 2 par exemple. Et comme ce sont des modèles open source et gratuits, vous n’aurez rien à payer.

L’importation de notes provenant d’autres applications est également possible, puisque Reor stocke ses données dans un seul répertoire, que vous choisissez lors de la première utilisation. Pour importer des notes/fichiers d’une autre application, il vous suffit donc de remplir ce répertoire manuellement avec des fichiers Markdown.

Voilà, c’est encore un peu brut comme outil, mais je parie que ça s’affinera avec le temps.

Merci à Lorenper

Jan – Le « ChatGPT » local et open source à installer sur votre machine

Par : Korben
23 mars 2024 à 09:00

Afin de rendre l’IA accessible à tous, y compris gratuitement puisque la plupart des modèles fonctionnent sur un système open source, une équipe de développeurs talentueux a créé Jan un outil pour les développeurs et les utilisateurs souhaitant profite d’une alternative à ChatGPT, totalement indépendante, fonctionnant hors ligne, open source et libre.

Il faut donc voir Jan comme un client de chat qui permet de télécharger des modèles comme Trinity, Mistral, Llama, OpenChat…etc. et de les faire tourner 100% hors ligne. Comme ça, pas de fuite de conversations privées ni de réutilisation de vos données pour entrainer de nouvelles IA. Et si comme moi, vous êtes accro à l’IA d’OpenAI, vous pourrez toujours y ajouter votre clé API et discuter avec ChatGPT (au tarif fixé par OpenAI évidemment).

Jan fonctionne sous Linux (Appimage et .deb dispo), sous Windows et macOS (Intel / Silicon) et propose une prise en charge des modèles open source tels que GGUF via llama.cpp, TensorRT via TensorRT-LLM ou des API externes. Jan utilise également le moteur d’inférence Nitro, des mêmes développeurs, qui se veut être rapide et léger.

Je teste ici le modèle Trinity 1.2 7B Q4 :

Et ici un modèle spécialisé en code Python nommé Wizard Coder Python 13B Q5.

Un truc cool avec Jan c’est que toutes les conversations sont conservées sur votre disque au format JSON, donc si le coeur vous en dit, vous pourrez ensuite les exploiter comme bon vous semble dans vos outils.

Jan propose également un serveur REST qui permet d’interroger via une API compatible OpenAI n’importe quel modèle que vous y feriez tourner. Ça permet de brancher vos outils ou vos scripts directement sur le LLM ouvert de votre choix.

Dans la lignée de Ollama ou LM Studio, Jan rempli ses promesses et vous permettra de vous éclater avec l’IA (abus de langage, je sais…) sans mettre en péril vos données personnelles.

Pour en savoir plus, rendez-vous sur le site de Jan ou sur leur page Github pour les sources et la doc.

Merci à Lorenper

Nvidia imagine bouleverser la modélisation 3D avec une IA qui génère n’importe quoi

22 mars 2024 à 12:23

Latte3D

Demain, serons-nous tous modélisateurs 3D ? Nvidia a dévoilé une IA générative, appelée LATTE3D, qui transforme en instant du texte en des représentations 3D. La démonstration s'est focalisée sur des objets et des animaux, mais l'outil pourrait générer en 3D n'importe quoi.

Life2vec – Une IA danoise qui prédit votre vie et… votre mort !

Par : Korben
21 mars 2024 à 11:54

La fin est proche mes amis !

Enfin, avec le concours de bistouquettes actuel entre Macron et Poutine, on se demande si on va pas partir tous collectivement vers le grand Au-Delà dans une grande gerbe de feu… Mais, si on met ça de côté, en tout cas la nôtre de fin, à titre individuel, arrivera forcement un jour 😬.

Mais quand ?

Life2vec, c’est un nouveau projet d’IA dingue qui nous vient tout droit du Danemark et qui va nous aider à répondre à cette question !

Il s’agit d’une intelligence artificielle capable de prédire des événements majeurs de votre vie, comme un décès prématuré, la naissance d’enfants, ou un mariage, rien qu’en analysant vos données personnelles. Ça a l’air d’un scénario de science-fiction, mais c’est malheureusement bien réel !

Alors comment ça fonctionne encore cette connerie ? Et bien les chercheurs ont entraîné leur modèle d’IA sur un jeu de données assez conséquant contenant les informations anonymisées de millions de Danois sur plusieurs décennies. En utilisant des techniques avancées d’apprentissage profond, Life2vec a appris à repérer des patterns dans les trajectoires de vie des gens.

Le modèle se base sur une architecture Transformer bidirectionnelle, un peu comme BERT en traitement du langage naturel. Mais au lieu de séquences de mots, il traite des séquences d’événements de vie. Chaque événement est ainsi représenté par un embedding, un vecteur numérique qui capture son sens. En analysant les relations entre ces embeddings, Life2vec peut alors faire des prédictions étonnamment précises !

Les chercheurs ont évalué leur modèle sur plusieurs tâches, comme la prédiction de mortalité précoce ou une expatriation. Les résultats sont bluffants : Life2vec surpasse de loin les modèles traditionnels, avec une fiabilité allant jusqu’à 76% ! Ils ont aussi montré que le modèle capturait des concepts haut niveau comme la stabilité professionnelle ou les troubles mentaux.

Mais au-delà de la prouesse technique, ce projet soulève des questions éthiques plutôt épineuses. Imaginez que des assurances ou des banques mettent la main sur ce genre d’outil pour évaluer leurs clients… Ça ouvre la porte à des dérives dangereuses ! Les chercheurs en sont bien conscients et appellent d’ailleurs à un encadrement strict de cette technologie.

Malgré ces risques, Life2vec ouvre des perspectives passionnantes comme nous permettre de mieux comprendre les différents facteurs qui influent sur nos trajectoires de vie et nous aider à identifier des leviers d’action pour les politiques publiques. On pourrait même imaginer des applications en médecine personnalisée ou en orientation professionnelle !

Bref, c’est un projet qui ne manque pas d’ambition et qui nous rappelle à quel point l’IA va bouleverser notre société dans les années à venir. Mais comme toujours avec ces technologies, il va falloir trouver le bon équilibre entre progrès et éthique. Et on va surtout pas demander à Najat ce qu’elle en pense.

En attendant, si vous voulez en savoir plus sur Life2vec, je vous invite à checker le code source sur GitHub des chercheurs ainsi que leur site officiel.

Source

NVIDIA se sert de l’IA pour créer des jeux ultra-réalistes qui s’adaptent en temps réel

NVIDIA vient de présenter une nouvelle démo technique jouable : Covert Protocol. Celle-ci met en lumière l’utilisation du système Avatar Cloud Engine qui permet de créer des personnages non-joueurs réalistes à l’aide de l’intelligence artificielle.

L’article NVIDIA se sert de l’IA pour créer des jeux ultra-réalistes qui s’adaptent en temps réel est apparu en premier sur Tom’s Hardware.

full

thumbnail

Rémunération de la presse : Google prend une amende sanctionnant son manque de rigueur

20 mars 2024 à 10:51

Google news actu

250 millions d'euros. Tel est le montant qu'inflige l'Autorité de la concurrence à Google dans le dossier des droits voisins, qui porte sur la rémunération des médias. Déjà en 2021, l'entreprise américaine avait reçu une amende de 500 millions d'euros.

FeatUp – L’algo qui permet à l’IA de passer à la haute résolution

Par : Korben
20 mars 2024 à 07:32

FeatUp, c’est le nom de ce nouvel algorithme révolutionnaire développé par une équipe de chercheurs du MIT dont le but consiste à faire passer la vision par ordinateur à la vitesse supérieure en lui offrant une résolution digne d’un œil de lynx.

Comment ça marche ? En gros, FeatUp s’attaque au problème de la perte d’information qui se produit quand les algorithmes d’IA analysent une image. Normalement, ils la découpent en une grille de petits carrés de pixels qu’ils traitent par groupe. Résultat, la résolution finale est bien plus faible que l’image de départ. Avec FeatUp, fini la myopie ! L’algo est capable de capter tous les détails, des plus évidents aux plus subtils.

La clé, c’est de faire légèrement bouger et pivoter les images pour voir comment l’IA réagit à ces micro-variations. En combinant des centaines de « cartes de caractéristiques » ainsi générées, on obtient un ensemble de données haute définition super précis. Un peu comme quand on crée un modèle 3D à partir de plusieurs images 2D sous différents angles.

Mais pour que ça turbine, il a fallu créer une nouvelle couche de réseau de neurones ultra-efficace, baptisée « suréchantillonnage bilatéral conjoint« . Grâce à elle, FeatUp améliore les performances d’un tas d’algos différents, de la segmentation sémantique à l’estimation de profondeur.

Les applications potentielles sont dingues : imaginez pouvoir repérer un minuscule panneau sur une autoroute encombrée pour une voiture autonome, ou localiser précisément une tumeur sur une radio des poumons. Avec sa capacité à transformer des suppositions vagues en détails précis, FeatUp pourrait rendre tous ces systèmes bien plus fiables et sûrs.

L’objectif des chercheurs, c’est que FeatUp devienne un outil fondamental du deep learning, pour enrichir les modèles sans sacrifier l’efficacité. Comme le résume Mark Hamilton, co-auteur de l’étude, l’enjeu est d’obtenir « le meilleur des deux mondes : des représentations très intelligentes avec la résolution de l’image d’origine« .

Bref, si FeatUp tient ses promesses, on n’a pas fini d’entendre parler de cette prouesse technologique qui pourrait donner un sacré coup de boost à l’IA visuelle puisqu’elle fournit des versions haute résolution d’analyses d’images qu’on pensait jusque-là limitées à la basse résolution. »

Pour en savoir plus, direction l’article du MIT !

MM1 – L’IA multimodale d’Apple qui « pense » différemment

Par : Korben
19 mars 2024 à 18:38

Vous pensiez qu’Apple se contentait de suivre les autres géants de la tech en matière d’intelligence artificielle ? Détrompez-vous ! La firme de Cupertino vient de dévoiler les secrets de son nouveau modèle d’IA baptisé MM1, et croyez-moi, ça décoiffe grave !

Alors que Google mise sur son modèle Gemini pour booster les fonctionnalités IA d’iOS 18, Apple a décidé de tracer sa propre route avec MM1. L’idée de génie ? Utiliser un dataset diversifié qui mélange allègrement du texte et des images pour entraîner cette IA nouvelle génération.

Résultat, MM1 est capable de générer des légendes pour des images de manière hyper précises, de répondre à des questions posées sur des images et même d’inférer du langage naturel à partir d’indices linguistiques et visuels. Une vraie bête de compétition !

En combinant différentes méthodes d’entraînement issues d’autres IA avec ses propres techniques maison, Apple espère ainsi rattraper son retard sur des mastodontes comme Google ou OpenAI. Et vu le niveau de performances annoncé, y a de quoi être optimiste !

Alors comment ça fonctionne ?

Et bien si vous montrez une photo de votre chat à MM1, non seulement il sera capable de le reconnaître et de le décrire avec une précision redoutable, mais il pourra aussi répondre à des questions du genre « De quelle couleur est son collier ? » ou « A-t-il l’air joueur ou paresseux sur cette image ?« .

Dans l’exemple réel ci-dessous, on lui demande combien il devra payer pour les bières (photo 1) d’après le menu (photo 2). Et c’est le seul à répondre correctement, et précisemment.

Bluffant, non ?

Et ce n’est qu’un exemple parmi d’autres. Apple étant Apple, on peut s’attendre à ce que MM1 révolutionne notre façon d’interagir avec nos devices. Pourquoi pas imaginer une app qui génère automatiquement la description textulle d’une scène que vous auriez photographié ? Ou un mode « sous-titres » universel qui retranscrirait en temps réel tout ce que votre iPhone voit et entend ? Les possibilités sont infinies dès que l’IA est embarquée !

Bien sûr, tout cela n’est encore qu’à l’état de recherche pour le moment. Mais connaissant Apple, on peut parier que la firme mettra rapidement en application les promesses de MM1 dans ses futurs produits et services. iOS 19 propulsé par une IA multimodale surpuissante, ça envoie du rêve, je ne vous le cache pas.

Avec MM1, Apple prouve une fois de plus sa capacité à innover. Pendant que les autres géants de la Silicon Valley se contentent d’améliorer leurs modèles existants, la marque à la pomme préfère partir d’une feuille blanche pour inventer l’IA de demain. Comme dirait l’autre, « think different », ça a du bon ! 😎

Alors, vous en pensez quoi de ce MM1 ? Hâte de voir ce qu’Apple nous réserve pour la suite.

Perso, j’ai déjà hâte de discuter avec mon iPhone comme s’il était mon meilleur pote. Au moins, j’aurais un pote ^^.

Source

Deepfake : d’où viennent les millions d’images trafiquées à caractère sexuel

19 mars 2024 à 17:35

Alors que de plus en plus de personnes, massivement des femmes, sont victimes de deepfakes à caractères sexuels, leur contrôle sur le web devient impossible tant les outils prolifèrent. Numerama a consulté ces chaînes « usines » à détournement de visage.

Deepfake : d’où viennent les millions d’images trafiquées à caractère sexuel

19 mars 2024 à 17:35

Alors que de plus en plus de personnes, massivement des femmes, sont victimes de deepfakes à caractères sexuels, leur contrôle sur le web devient impossible tant les outils prolifèrent. Numerama a consulté ces chaînes « usines » à détournement de visage.

Avec Blackwell, Nvidia améliore un facteur critique pour le futur de l’IA

19 mars 2024 à 15:13

À l'occasion de sa conférence GTC, Nvidia a levé la voile sur la puce Blackwell B200, un nouveau GPU qu'il présente comme une « super puce ». Avec 208 milliards de transistors et une consommation énergétique en baisse, la puce Blackwell est la nouvelle arme fatale pour les acteurs de l'intelligence artificielle générative.

Internet Archive dans la sauce à cause des éditeurs

Par : Korben
19 mars 2024 à 12:25

Ça chauffe entre les éditeurs et Internet Archive !

En 2020, Hachette, Harper&Collins, John Wiley et Penguin Random House ont attaqué en justice la bibliothèque numérique pour violation du droit d’auteur, comparant son initiative Open Library à un site pirate. 😱

Le fonctionnement d’Internet Archive est pourtant simple : elle scanne des livres physiques pour les prêter en format ebook, avec des restrictions techniques empêchant la copie. Un seul utilisateur peut emprunter une copie numérique d’un livre physique à la fois. Mais ça ne plaît pas à tout le monde…

Les éditeurs voient rouge et parlent carrément d’un « assaut frontal » contre leur droit exclusif de contrôler les différents formats de leurs œuvres. Ils ont bien l’intention de défendre bec et ongles ce « principe fondamental » qui a permis l’essor de la diversité des formats (livres, films, télé, musique).

Internet Archive essaie bien de répliquer en brandissant le fair use, arguant que ses copies numériques sont « transformatives » comme l’autorise l’arrêt Betamax pour l’enregistrement vidéo privé. Mais les éditeurs n’en démordent pas : pour eux c’est juste un moyen de contourner les licences officielles d’ebooks.

Ce qui les effraie par-dessus tout, c’est un « moment Napster » pour l’industrie du livre. Si n’importe qui peut numériser et distribuer des bouquins sans passer par la case éditeur, ça risque de faire très mal.

Scoop les gars, c’est déjà le cas depuis des années…

Mais bon, la Cour de justice américain a tranché en 2022 : Internet Archive est bien coupable de violation du droit d’auteur. Toutefois la bibliothèque virtuelle ne compte pas en rester là et a fait appel, avec le soutien d’auteurs et d’experts en propriété intellectuelle qui dénoncent un contrôle excessif des éditeurs.

Affaire à suivre donc…

Bien malin qui pourrait prédire les bouleversements à venir pour l’industrie du livre à l’ère du numérique comme disent les vieux. Une chose est sûre : comme pour la musique avec Napster puis Spotify, il va falloir s’adapter ou couler ! Plouf !

Source

NVIDIA officialise ses GPU Blackwell conçus pour rendre l’IA plus efficace

NVIDIA vient de présenter officiellement sa nouvelle génération de GPU Blackwell devant alimenter les modèles d'intelligence artificielle. Selon l'entreprise, celle-ci représente une avancée significative, notamment en ce qui concerne la capacité de calcul et d'apprentissage des grands modèles de langage (LLM).

L’article NVIDIA officialise ses GPU Blackwell conçus pour rendre l’IA plus efficace est apparu en premier sur Tom’s Hardware.

full

thumbnail

LocalAI – L’alternative open source puissante à OpenAI

Par : Korben
19 mars 2024 à 09:00

Aujourd’hui, j’aimerais vous présenter LocalAI, une alternative open source à OpenAI. En tout cas, c’est comme ça que le créateur du projet le présente. Il s’agit d’une solution idéale pour tous ceux qui cherchent une API REST compatible avec les spécifications de l’API OpenAI pour l’inférence locale.

Grâce à LocalAI, vous pouvez exécuter des modèles linguistiques, générer des images, de l’audio et bien d’autres choses encore, localement ou sur site avec du matériel grand public, et ce, sans avoir besoin d’un GPU ! Le projet a pour principal objectif de rendre l’IA accessible à tous.

Pour résumer, voici les principales caractéristiques de LocalAI :

  • Une API REST locale, alternative à OpenAI. Comme ça, vous gardez bien au chaud vos propres données.
  • Pas besoin de GPU. Pas besoin d’accès internet non plus. Toutefois, l’accélération GPU est possible en option.
  • Prise en charge de plusieurs modèles.
  • Dès qu’ils sont chargés une première fois, les modèles restent en mémoire pour une inférence plus rapide.
  • N’utilise pas de shell, mais des liaisons directes pour une inférence plus rapide et de meilleures performances.

En termes de fonctionnalités, LocalAI offre une large gamme d’options, parmi lesquelles :

  • La génération de texte avec les modèles GPT (comme llama.cpp ou gpt4all.cpp).
  • La conversion de texte en audio.
  • La transcription audio en texte avec whisper.cpp.
  • La génération d’images avec Stable Diffusion.
  • Les dernières fonctionnalités d’OpenAI récemment ajoutées comme l’API Vision par exemple.
  • La génération d’embeddings pour les bases de données vectorielles.
  • Les grammaires contraintes.
  • Le téléchargement de modèles directement à partir de Huggingface.

LocalAI est bien sûr un projet communautaire donc n’hésitez pas si vous souhaitez vous impliquer !

Pour commencer rapidement avec LocalAI, vous pouvez consulter leur guide Getting Started qui décrit les différentes méthodes d’installation et les exigences matérielles ou aller consulter les guides de la communauté. Je vous ferais aussi probablement un tutoriel prochainement si mon emploi du temps me le permet.

LocalAI est disponible sous forme d’image conteneur et de binaire, compatible avec divers moteurs de conteneurs tels que Docker, Podman et Kubernetes. Les images de conteneurs sont publiées sur quay.io et Docker Hub, et les binaires peuvent être téléchargés à partir de GitHub.

Concernant les exigences matérielles, ça varie en fonction de la taille du modèle et de la méthode de quantification utilisée mais pour choper quelques repères de performance avec différents backends, comme llama.cpp, vous pouvez consulter ce lien.

Maintenant pour en savoir plus, vous pouvez explorer le site localai.io. Vous y trouverez de nombreuses informations et des exemples d’utilisation pour vous aider à tirer le meilleur parti de LocalAI.

Merci à Lorenper

Si Apple utilise Google Gemini, nos données ne seront pas menacées

18 mars 2024 à 15:06

Apple discuterait avec Google pour utiliser le modèle de langage Gemini sur ses appareils. Mais, cela ne veut absolument pas dire que Google aurait accès aux données des propriétaires d'iPhone.

❌
❌