Google a retiré son modèle Gemma après des rapports d'hallucinations sur des questions factuelles, l'entreprise soulignant qu'il était destiné à des fins de développement et de recherche.
La société technologique Google a annoncé le retrait de son modèle Gemma AI suite à des rapports sur des réponses inexactes à des questions factuelles, précisant que le modèle était conçu uniquement pour la recherche et l'utilisation par les développeurs.
Selon la déclaration de l'entreprise, Gemma n'est plus accessible via AI Studio, bien qu'elle reste disponible pour les développeurs via l'API. Cette décision a été motivée par des cas de non-développeurs utilisant Gemma via AI Studio pour demander des informations factuelles, ce qui n'était pas sa fonction prévue.
Google a expliqué que Gemma n'était jamais censée servir d'outil destiné aux consommateurs, et que la suppression a été effectuée pour éviter toute nouvelle incompréhension concernant son objectif.
Dans sa clarification, Google a souligné que la famille de modèles Gemma a été développée en tant qu'outils open-source pour soutenir les communautés de développeurs et de recherche plutôt que pour une assistance factuelle ou une interaction avec les consommateurs. La société a noté que des modèles ouverts comme Gemma sont destinés à encourager l'expérimentation et l'innovation, permettant aux utilisateurs d'explorer la performance des modèles, d'identifier des problèmes et de fournir des retours d'expérience précieux.
Google a souligné que Gemma a déjà contribué aux avancées scientifiques, en citant l'exemple du modèle Gemma C2S-Scale 27B, qui a récemment joué un rôle dans l'identification d'une nouvelle approche pour le développement de thérapies contre le cancer.
La société a reconnu des défis plus larges auxquels l'industrie de l'IA est confrontée, tels que les hallucinations—lorsque les modèles génèrent des informations fausses ou trompeuses—et la sycophantie—lorsqu'ils produisent des réponses agréables mais inexactes.
Ces problèmes sont particulièrement courants parmi les petits modèles ouverts comme Gemma. Google a réaffirmé son engagement à réduire les hallucinations et à améliorer continuellement la fiabilité et la performance de ses systèmes d'IA.
Google met en œuvre une stratégie multi-niveaux pour réduire les hallucinations de l'IA
L'entreprise adopte une approche multicouche pour minimiser les hallucinations dans ses grands modèles de langage (LLMs), combinant l'ancrage des données, un entraînement rigoureux et la conception du modèle, des incitations structurées et des règles contextuelles, ainsi qu'une supervision humaine continue et des mécanismes de retour d'information. Malgré ces mesures, l'entreprise reconnaît que les hallucinations ne peuvent pas être entièrement éliminées.
La limitation sous-jacente provient de la façon dont les LLM fonctionnent. Plutôt que de posséder une compréhension de la vérité, les modèles fonctionnent en prédisant des séquences de mots probables en fonction des motifs identifiés lors de l'entraînement. Lorsque le modèle manque de fondement suffisant ou rencontre des données externes incomplètes ou peu fiables, il peut générer des réponses qui semblent crédibles mais qui sont factuellement incorrectes.
De plus, Google note qu'il existe des compromis inhérents à l'optimisation des performances des modèles. Augmenter la prudence et restreindre les sorties peut aider à limiter les hallucinations, mais cela se fait souvent au détriment de la flexibilité, de l'efficacité et de l'utilité dans certaines tâches. En conséquence, des inexactitudes occasionnelles persistent, en particulier dans des domaines émergents, spécialisés ou sous-représentés où la couverture des données est limitée.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Google retire Gemma AI de l'AI Studio, réitérant l'objectif réservé aux développeurs face aux préoccupations concernant l'exactitude.
En bref
Google a retiré son modèle Gemma après des rapports d'hallucinations sur des questions factuelles, l'entreprise soulignant qu'il était destiné à des fins de développement et de recherche.
La société technologique Google a annoncé le retrait de son modèle Gemma AI suite à des rapports sur des réponses inexactes à des questions factuelles, précisant que le modèle était conçu uniquement pour la recherche et l'utilisation par les développeurs.
Selon la déclaration de l'entreprise, Gemma n'est plus accessible via AI Studio, bien qu'elle reste disponible pour les développeurs via l'API. Cette décision a été motivée par des cas de non-développeurs utilisant Gemma via AI Studio pour demander des informations factuelles, ce qui n'était pas sa fonction prévue.
Google a expliqué que Gemma n'était jamais censée servir d'outil destiné aux consommateurs, et que la suppression a été effectuée pour éviter toute nouvelle incompréhension concernant son objectif.
Dans sa clarification, Google a souligné que la famille de modèles Gemma a été développée en tant qu'outils open-source pour soutenir les communautés de développeurs et de recherche plutôt que pour une assistance factuelle ou une interaction avec les consommateurs. La société a noté que des modèles ouverts comme Gemma sont destinés à encourager l'expérimentation et l'innovation, permettant aux utilisateurs d'explorer la performance des modèles, d'identifier des problèmes et de fournir des retours d'expérience précieux.
Google a souligné que Gemma a déjà contribué aux avancées scientifiques, en citant l'exemple du modèle Gemma C2S-Scale 27B, qui a récemment joué un rôle dans l'identification d'une nouvelle approche pour le développement de thérapies contre le cancer.
La société a reconnu des défis plus larges auxquels l'industrie de l'IA est confrontée, tels que les hallucinations—lorsque les modèles génèrent des informations fausses ou trompeuses—et la sycophantie—lorsqu'ils produisent des réponses agréables mais inexactes.
Ces problèmes sont particulièrement courants parmi les petits modèles ouverts comme Gemma. Google a réaffirmé son engagement à réduire les hallucinations et à améliorer continuellement la fiabilité et la performance de ses systèmes d'IA.
Google met en œuvre une stratégie multi-niveaux pour réduire les hallucinations de l'IA
L'entreprise adopte une approche multicouche pour minimiser les hallucinations dans ses grands modèles de langage (LLMs), combinant l'ancrage des données, un entraînement rigoureux et la conception du modèle, des incitations structurées et des règles contextuelles, ainsi qu'une supervision humaine continue et des mécanismes de retour d'information. Malgré ces mesures, l'entreprise reconnaît que les hallucinations ne peuvent pas être entièrement éliminées.
La limitation sous-jacente provient de la façon dont les LLM fonctionnent. Plutôt que de posséder une compréhension de la vérité, les modèles fonctionnent en prédisant des séquences de mots probables en fonction des motifs identifiés lors de l'entraînement. Lorsque le modèle manque de fondement suffisant ou rencontre des données externes incomplètes ou peu fiables, il peut générer des réponses qui semblent crédibles mais qui sont factuellement incorrectes.
De plus, Google note qu'il existe des compromis inhérents à l'optimisation des performances des modèles. Augmenter la prudence et restreindre les sorties peut aider à limiter les hallucinations, mais cela se fait souvent au détriment de la flexibilité, de l'efficacité et de l'utilité dans certaines tâches. En conséquence, des inexactitudes occasionnelles persistent, en particulier dans des domaines émergents, spécialisés ou sous-représentés où la couverture des données est limitée.