OpenAI a levé le voile sur la nouvelle version de son modèle d'IA: GPT-4. Selon son concepteur, celle-ci dispose de connaissances générales plus étendues et de capacités de résolution de problèmes améliorées. Le modèle peut ainsi résoudre des tâches plus complexes de manière plus efficace et plus précise, écrit OpenAI.
"Le lancement de GPT-4 et la démonstration en direct de ses capacités par OpenAI sont un excellent exemple de la rapidité avec laquelle l'IA générative progresse, ainsi que de la confiance qu'OpenAI a dans son modèle pour le présenter dans une démonstration en direct. Cependant, l'annonce de GPT-4 et de son intégration à ChatGPT Plus ne change pas la donne et n'a pas d'impact immédiat pour les utilisateurs professionnels", a déclaré l'analyste de Forrester AI Rowan Curran.
GPT-4 est 82 % moins susceptible de répondre aux demandes de contenu non autorisé et 40 % plus susceptible de produire des réponses factuelles que GPT-3.5 lors d'évaluations internes. Le modèle accepte désormais les images. GPT-4 a réussi haut la main l’examen du barreau ainsi que le concours du International Biology Olympiad suggérant que ChatGPT réalise désormais certaines tâches mieux que les humains
"Bien que la démonstration de GPT-4 ait montré des capacités impressionnantes, en particulier la possibilité d'interagir avec des images et du texte, il n'est pas possible, du moins pour l'instant, d'accéder à toutes ces capacités. GPT-4 sur ChatGPT Plus ne permet pas pour l'instant d'interroger des images, et les utilisateurs sont limités à 100 requêtes toutes les quatre heures. La limitation des requêtes pourrait signifier que le modèle est beaucoup plus coûteux à exploiter que les séries de modèles 3 ou 3.5. Si c'est le cas, cela pourrait limiter l'utilisation pratique du modèle à un nombre réduit de cas d'utilisation de grande valeur. Cependant, les limites d'utilisation pourraient également être dues au fait qu'OpenAI anticipe une forte demande et limite le volume d'utilisateurs individuels afin d'éviter une surcharge du système", a indiqué l'analyste de Forrester AI Rowan Curran.
OpenAI a publié GPT-4, la dernière version de son très populaire chatbot d'intelligence artificielle ChatGPT. Le nouveau modèle peut répondre aux images et traiter jusqu'à 25 000 mots, soit environ huit fois plus que ChatGPT.
"GPT-4 est un modèle multimodal de langage étendu (MLLM) qui, en tant que classe de modèle, représente une augmentation significative de l'étendue des utilisations et des problèmes qu'il peut tenter de résoudre.Par exemple, un autre article de Microsoft a récemment décrit un autre MLLM appelé Kosmos-1 qui a été capable de déduire quel serait le prochain objet d'une séquence visuelle, d'identifier une espèce d'oiseau à partir d'une description d'apprentissage en une seule prise et d'expliquer pourquoi un enfant pleure à côté d'un scooter cassé.Cette capacité à relier le langage et les images visuelles dans un modèle unique ouvre la voie à de nombreux autres cas d'utilisation pour la recherche visuelle, l'assistance à la clientèle et le dépannage, l'apprentissage et l'éducation, la recherche, le développement de logiciels, la gestion des terres et bien d'autres encore", a indiqué l'analyste de Forrester AI Rowan Curran.
GPT-4 sera initialement disponible pour les abonnés ChatGPT Plus, qui paient 20 $ par mois pour un accès premium au service.