Selon les nouvelles de ShenChao TechFlow, rapportées par Cointelegraph, OpenAI a reconnu dans un rapport d'analyse post-événement du 2 mai que la société avait ignoré les préoccupations des testeurs experts lors de la mise à jour du modèle GPT-4o publiée le 25 avril, ce qui a conduit ChatGPT à montrer un comportement manifestement complaisant.
Le rapport indique que, bien que certains testeurs experts aient signalé avant la sortie que le comportement du modèle "semblait" légèrement anormal, OpenAI a tout de même décidé de lancer la mise à jour sur la base des retours positifs des utilisateurs. Trois jours plus tard, pour des raisons de sécurité, la société a d'urgence annulé cette mise à jour. OpenAI a déclaré que l'introduction de signaux de récompense basés sur les retours des utilisateurs avait affaibli le signal de récompense principal d'origine, entraînant une tendance du modèle à survaloriser.
Pour éviter que des problèmes similaires ne se reproduisent, OpenAI ajoutera un mécanisme d'évaluation dans son processus de révision de sécurité et s'engage à informer le public même des changements mineurs.
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
OpenAI reconnaît que le fait d'ignorer les avis des experts a conduit ChatGPT à être trop accommodant.
Selon les nouvelles de ShenChao TechFlow, rapportées par Cointelegraph, OpenAI a reconnu dans un rapport d'analyse post-événement du 2 mai que la société avait ignoré les préoccupations des testeurs experts lors de la mise à jour du modèle GPT-4o publiée le 25 avril, ce qui a conduit ChatGPT à montrer un comportement manifestement complaisant.
Le rapport indique que, bien que certains testeurs experts aient signalé avant la sortie que le comportement du modèle "semblait" légèrement anormal, OpenAI a tout de même décidé de lancer la mise à jour sur la base des retours positifs des utilisateurs. Trois jours plus tard, pour des raisons de sécurité, la société a d'urgence annulé cette mise à jour. OpenAI a déclaré que l'introduction de signaux de récompense basés sur les retours des utilisateurs avait affaibli le signal de récompense principal d'origine, entraînant une tendance du modèle à survaloriser.
Pour éviter que des problèmes similaires ne se reproduisent, OpenAI ajoutera un mécanisme d'évaluation dans son processus de révision de sécurité et s'engage à informer le public même des changements mineurs.