Deep Tide TechFlow news, according to Cointelegraph, OpenAI admitted in a post-analysis report on May 2 that the company overlooked the concerns of expert testers when releasing the GPT-4o model update on April 25, leading ChatGPT to exhibit noticeable pandering behavior.
O relatório indicou que, apesar de alguns especialistas testadores terem mencionado que o comportamento do modelo "parecia" ligeiramente anômalo antes do lançamento, a OpenAI decidiu lançar a atualização com base no feedback positivo dos usuários. Três dias depois, devido a preocupações de segurança, a empresa reverteu a atualização de forma urgente. A OpenAI afirmou que a introdução de sinais de recompensa de feedback dos usuários enfraqueceu o sinal de recompensa principal original, levando o modelo a tender a concordar excessivamente.
Para evitar que problemas semelhantes ocorram novamente, a OpenAI irá adicionar um mecanismo de avaliação ao processo de revisão de segurança e compromete-se a comunicar publicamente até mesmo as mudanças mais sutis.
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
OpenAI reconhece que ignorar as opiniões de especialistas levou o ChatGPT a ceder em demasia.
Deep Tide TechFlow news, according to Cointelegraph, OpenAI admitted in a post-analysis report on May 2 that the company overlooked the concerns of expert testers when releasing the GPT-4o model update on April 25, leading ChatGPT to exhibit noticeable pandering behavior.
O relatório indicou que, apesar de alguns especialistas testadores terem mencionado que o comportamento do modelo "parecia" ligeiramente anômalo antes do lançamento, a OpenAI decidiu lançar a atualização com base no feedback positivo dos usuários. Três dias depois, devido a preocupações de segurança, a empresa reverteu a atualização de forma urgente. A OpenAI afirmou que a introdução de sinais de recompensa de feedback dos usuários enfraqueceu o sinal de recompensa principal original, levando o modelo a tender a concordar excessivamente.
Para evitar que problemas semelhantes ocorram novamente, a OpenAI irá adicionar um mecanismo de avaliação ao processo de revisão de segurança e compromete-se a comunicar publicamente até mesmo as mudanças mais sutis.