Bonjour à tous, bienvenue dans la newsletter IA régulière de TechCrunch.
Cette semaine, Gartner a publié un rapport sur l’IA rapport suggérant qu’environ un tiers des projets d’IA générative dans l’entreprise seront abandonnés après la phase de preuve de concept d’ici la fin de l’année 2025. Les raisons sont nombreuses : mauvaise qualité des données, contrôles des risques inadéquats, coûts d’infrastructure en hausse, etc.
Mais l’un des plus grands obstacles à l’adoption de l’IA générative est la valeur commerciale floue, selon le rapport.
Selon Gartner, l’adoption de l’IA générative à l’échelle de l’entreprise entraîne des coûts importants, allant de 5 à 20 millions de dollars. Un simple assistant de codage coûte entre 100 000 et 200 000 dollars au départ et des coûts récurrents de plus de 550 dollars par utilisateur et par an, tandis qu’un outil de recherche de documents basé sur l’IA peut coûter 1 million de dollars au départ et entre 1,3 et 11 millions de dollars par utilisateur et par an.
Ces prix élevés sont difficiles à accepter pour les entreprises lorsque les avantages sont difficiles à quantifier et pourraient prendre des années à se matérialiser – si tant est qu’ils se matérialisent. jamais se concrétiser.
Une enquête d’Upwork réalisée ce mois-ci révèle que l’IA, plutôt que d’améliorer la productivité, s’est avérée être un fardeau pour de nombreux travailleurs qui l’utilisent. Selon l’enquête, qui a interrogé 2 500 cadres supérieurs, employés à temps plein et travailleurs indépendants, près de la moitié (47 %) des travailleurs utilisant l’IA déclarent qu’ils n’ont aucune idée de la manière d’obtenir les gains de productivité attendus par leurs employeurs, tandis que plus des trois quarts (77 %) pensent que les outils d’IA ont diminué productivité et alourdit leur charge de travail d’au moins une manière.
Il semble que le Phase de lune de miel de l’IA pourrait bien se terminer, malgré activité robuste du côté du capital-risque. Et ce n’est pas choquant. Anecdote après anecdote révèle comment l’IA générative, qui a non résolu fondamental technique problèmesest souvent plus compliqué que cela en vaut la peine.
Mardi dernier, Bloomberg publié Un article sur un outil développé par Google qui utilise l’intelligence artificielle pour analyser les dossiers médicaux des patients, actuellement en phase de test dans les hôpitaux HCA en Floride. Les utilisateurs de l’outil avec lesquels Bloomberg s’est entretenu ont déclaré qu’il ne pouvait pas fournir systématiquement des informations de santé fiables ; dans un cas, il n’a pas réussi à noter si un patient souffrait d’allergies médicamenteuses.
Les entreprises commencent à exiger davantage de l’IA. À moins que des avancées scientifiques ne viennent combler ses pires limites, il incombe aux fournisseurs de gérer les attentes.
On verra s’ils ont l’humilité de le faire.
Nouvelles
RechercheGPT : OpenAI a annoncé jeudi dernier SearchGPT, une fonctionnalité de recherche conçue pour donner des « réponses opportunes » aux questions, en s’appuyant sur des sources Web.
Bing bénéficie de plus d’IA : Pour ne pas être en reste, Microsoft a présenté la semaine dernière un aperçu de sa propre expérience de recherche basée sur l’IA, appelée recherche générative Bing. Disponible uniquement pour un « petit pourcentage » d’utilisateurs pour le moment, la recherche générative Bing — comme SearchGPT — regroupe des informations provenant de partout sur le Web et génère un résumé en réponse aux requêtes de recherche.
X opte pour les utilisateurs : X, anciennement Twitter, a discrètement introduit un changement qui semble inclure par défaut les données des utilisateurs dans son pool de formation pour le chatbot Grok de X, une décision qui a été repérée par les utilisateurs de la plateforme vendredi. Les régulateurs de l’UE et d’autres ont rapidement crié au scandale. (Vous vous demandez comment vous désinscrire ?) Voici un guide.)
L’UE appelle à l’aide pour l’IA : L’Union européenne a lancé une consultation sur les règles qui s’appliqueront aux fournisseurs de modèles d’IA à usage général dans le cadre de la loi sur l’IA du bloc, son cadre basé sur les risques pour réglementer les applications de l’IA.
Détails de Perplexity sur les licences d’éditeur : Le moteur de recherche IA Perplexity commencera bientôt à partager les revenus publicitaires avec les éditeurs de presse lorsque son chatbot fera apparaître leur contenu en réponse à une requête, une mesure qui semble conçue pour apaiser les critiques qui ont accusé Perplexity de plagiat et de scraping Web contraire à l’éthique.
Meta déploie AI Studio : Meta a annoncé lundi qu’elle déployait son outil AI Studio auprès de tous les créateurs aux États-Unis pour leur permettre de créer des chatbots personnalisés basés sur l’IA. La société a dévoilé AI Studio pour la première fois l’année dernière et a commencé à le tester auprès de certains créateurs en juin.
Le ministère du Commerce soutient les modèles « ouverts » : Le département américain du Commerce a publié lundi un rapport en faveur des modèles d’IA génératifs « à poids ouvert » comme Llama 3.1 de Meta, mais a recommandé au gouvernement de développer de « nouvelles capacités » pour surveiller ces modèles afin de détecter les risques potentiels.
99 $Ami : Avi Schiffmann, un étudiant qui a abandonné ses études à Harvard, travaille sur un appareil à 99 dollars alimenté par l’intelligence artificielle appelé Friend. Comme son nom l’indique, ce pendentif porté autour du cou est conçu pour être considéré comme une sorte de compagnon. Mais on ne sait pas encore s’il fonctionne comme annoncé.
Article de recherche de la semaine
L’apprentissage par renforcement à partir du feedback humain (RLHF) est la technique dominante pour garantir que les modèles d’IA génératifs suivent les instructions et respectent les consignes de sécurité. Mais le RLHF nécessite de recruter un grand nombre de personnes pour évaluer les réponses d’un modèle et fournir un feedback, un processus long et coûteux.
OpenAI adopte donc des alternatives.
Dans un nouveau papierLes chercheurs d’OpenAI décrivent ce qu’ils appellent les récompenses basées sur des règles (RBR), qui utilisent un ensemble de règles étape par étape pour évaluer et guider les réponses d’un modèle aux invites. Les RBR décomposent les comportements souhaités en règles spécifiques qui sont ensuite utilisées pour former un « modèle de récompense », qui oriente l’IA – en lui « enseignant », en quelque sorte – la manière dont elle doit se comporter et réagir dans des situations spécifiques.
OpenAI affirme que les modèles formés par RBR présentent de meilleures performances en matière de sécurité que ceux formés uniquement avec un retour d’information humain, tout en réduisant le besoin de grandes quantités de données de retour d’information humain. En fait, l’entreprise affirme avoir utilisé les RBR dans le cadre de sa pile de sécurité depuis le lancement de GPT-4 et prévoit de les mettre en œuvre dans les futurs modèles.
Modèle de la semaine
DeepMind de Google progresse dans sa quête pour résoudre des problèmes mathématiques complexes avec l’IA.
Il y a quelques jours, DeepMind annoncé DeepMind affirme que les systèmes AlphaProof et AlphaGeometry 2 (le successeur de l’Olympiade internationale de mathématiques de janvier) ont formé deux systèmes d’IA pour résoudre quatre des six problèmes de l’Olympiade internationale de mathématiques (IMO) de cette année, la prestigieuse compétition de mathématiques des lycées. AlphaGéométrie), ont démontré une aptitude à former et à exploiter des abstractions et une planification hiérarchique complexe — autant d’opérations qui ont toujours été difficiles à réaliser pour les systèmes d’IA.
AlphaProof et AlphaGeometry 2 ont travaillé ensemble pour résoudre deux problèmes d’algèbre et un problème de théorie des nombres. (Les deux questions restantes sur combinatoire (les problèmes n’ont pas été résolus). Les résultats ont été vérifiés par des mathématiciens ; c’est la première fois que des systèmes d’IA ont pu atteindre des performances dignes d’une médaille d’argent sur des questions de l’OMI.
Il y a cependant quelques réserves à formuler. Il a fallu plusieurs jours aux modèles pour résoudre certains problèmes. Et même si leurs capacités de raisonnement sont impressionnantes, AlphaProof et AlphaGeometry 2 ne peuvent pas nécessairement aider à résoudre des problèmes ouverts qui ont de nombreuses solutions possibles, contrairement à ceux qui n’ont qu’une seule bonne réponse.
Nous verrons ce que la prochaine génération nous réserve.
Prendre sac
La startup d’IA Stability AI a publié un modèle d’IA génératif qui transforme une vidéo d’un objet en plusieurs clips qui semblent avoir été capturés sous différents angles.
Appelé Vidéo stable 4DSelon Stability, le modèle pourrait avoir des applications dans le développement de jeux et le montage vidéo, ainsi que dans la réalité virtuelle. « Nous prévoyons que les entreprises adopteront notre modèle et l’affineront davantage pour répondre à leurs besoins spécifiques », a déclaré la société. a écrit dans un article de blog.
Pour utiliser Stable Video 4D, les utilisateurs téléchargent des séquences et spécifient les angles de caméra souhaités. Après environ 40 secondes, le modèle génère huit vidéos de cinq images (bien que l’« optimisation » puisse prendre 25 minutes supplémentaires).
Stability affirme travailler activement à affiner le modèle, en l’optimisant pour qu’il puisse gérer une plus large gamme de vidéos du monde réel au-delà des ensembles de données synthétiques actuels sur lesquels il a été formé. « Le potentiel de cette technologie pour créer des vidéos réalistes sous plusieurs angles est vaste, et nous sommes impatients de voir comment elle évoluera grâce aux recherches et au développement en cours », a poursuivi l’entreprise.