TSGJB BANNER

GPT-4: l’intelligence artificielle gagne en intelligence «humaine»

GPT-4: l’intelligence artificielle gagne en intelligence «humaine»

Après le fameux ChatGPT, l’Américain OpenAI vient de lancer GPT-4, une nouvelle version encore plus performante. Désormais doté de la reconnaissance des textes et des images, il constitue un pas de plus vers des programmes informatiques aussi «intelligents» que les humains.

L’entreprise californienne OpenAI, à l’origine du phénomène ChatGPT, a lancé hier mardi GPT-4, une nouvelle version de la technologie d’intelligence artificielle générative qui opère le célèbre chatbot, et qui constitue d’après ses concepteurs un pas supplémentaire vers des programmes informatiques aussi « intelligents » que les humains.

Microsoft, qui a investi dans la start-up, a annoncé dans la foulée avoir intégré GPT-4 à Bing, son moteur de recherche déjà doté de fonctionnalités de ChatGPT depuis un mois. «GPT-4 est moins doué que les humains dans de nombreux scénarios de la vie réelle, mais aussi performant que les humains dans de nombreux contextes professionnels et académiques», a indiqué OpenAI dans un communiqué.

Avec GPT-4, le chatbot va devenir «plus créatif et collaboratif que jamais», promet l’entreprise. Contrairement aux versions précédentes, le nouveau modèle est équipé de la vision: il comprend le texte mais aussi les images, grâce à une autre start-up, Be My Eyes. Il ne génère en revanche que du texte. Dans l’immédiat, seuls les utilisateurs de ChatGPT Plus, la version payante du chatbot, et le million d’internautes ayant accès au nouveau Bing vont pouvoir tester GPT-4 (sans le traitement d’images pour l’instant).

«Plus intelligents que les humains»

Les capacités multimédia de GPT-4 constituent un pas dans la direction de l’intelligence artificielle dite «générale». Le concept désigne des systèmes d’IA dotés de capacités cognitives humaines, ou «plus intelligents que les humains en général», selon le patron de la start-up, Sam Altman.

Pour l’instant, le modèle manque d’une capacité cruciale: la mémoire. Il a été formé sur des données qui s’arrêtent en septembre 2021 et «n’apprend pas en continu de ses expériences», détaille OpenAI. Il a en revanche gagné du terrain académique: «il réussit l’examen pour devenir avocat avec un score aussi bon que les meilleurs 10%. La version précédente, GPT 3.5, était au niveau des 10% les moins bons», s’est félicitée l’entreprise.

«GPT-4 peut désormais postuler pour étudier à Stanford (une prestigieuse université américaine, ndlr). Sa capacité à raisonner c’est du JAMAIS-VU! », a tweeté Jim Fan, un spécialiste de l’IA passé par Google et OpenAI, et désormais chez Nvidia. Il a admis avoir reçu de moins bons résultats à certains examens que le modèle.

« La puissance de l’algorithme va augmenter, mais ce n’est pas une deuxième révolution. On n’est pas passé de la Lune à Mars», a nuancé Robert Vesoul, PDG de l’entreprise française Illuin Technology. «Malgré ses capacités, GPT-4 a des limites similaires aux modèles précédents», a reconnu OpenAI. «Il n’est pas encore totalement fiable.»

La course à l’IA est lancée

L’engouement pour ChatGPT a lancé une course à l’IA générative. En tête, Microsoft et Google ont intégré des outils de création automatisée sur leurs plateformes et logiciels en ligne, pour faciliter la production d’emails, de campagnes publicitaires et d’autres documents… non sans couacs et erreurs.

Morgan Stanley a annoncé mardi qu’elle allait utiliser GPT-4, qui permet «d’avoir toutes les connaissances de la personne la plus qualifiée en gestion de fortune - instantanément». Le géant des tutoriels Khan Academy et l’application de paiement Stripe vont aussi intégrer des fonctionnalités de GPT-4.

Cette progression rapide de l’IA générative inquiète de nombreuses professions intellectuelles et créatives, qui s’imaginent déjà réduites au rôle de gestion des chatbots pour en tirer les meilleurs textes et images. Ces technologies ont aussi le potentiel d’être utilisées à des fins néfastes.

L’entreprise a annoncé avoir engagé plus de 50 experts pour évaluer les nouveaux dangers qui pourraient émerger, pour la cybersécurité par exemple, en plus des risques déjà connus (génération de conseils dangereux, code informatique défectueux, fausses informations, etc.).

Leurs retours et analyses doivent permettre d’améliorer le modèle. « Nous avons notamment récolté des données supplémentaires pour nous assurer que GPT-4 refuse les requêtes d’utilisateurs sur la fabrication de produits chimiques dangereux », a déclaré OpenAI.

Le 15 Mars 2023

Source web par : le360

Les tags en relation

 

Les articles en relation