A crise da OpenAI provoca reflexão: será que o modelo DAO pode otimizar a governança dos gigantes da IA?

A Crise de Governança da OpenAI e as Lições do Modelo DAO

Recentemente, a crise de governança interna da OpenAI gerou amplas discussões na indústria. Muitas pessoas acreditam que, se a OpenAI adotasse a forma de organização autônoma descentralizada (DAO) para sua governança, poderia talvez evitar essa tempestade. Essa perspectiva merece reflexão, pois certos princípios de governança do DAO podem de fato ajudar a OpenAI a aprimorar sua estrutura de gestão.

Opinião: Se a OpenAI fosse um DAO, poderia evitar esse espetáculo de governança?

A OpenAI, como uma organização sem fins lucrativos dedicada a criar inteligência artificial geral (AGI) segura e beneficiar toda a humanidade, possui uma missão bastante semelhante à de muitas organizações DAO que criam bens públicos. No entanto, a recente turbulência interna da OpenAI não decorre da sua estrutura organizacional em si, mas sim da incerteza e irracionalidade das regras de governança.

Por exemplo, o conselho da OpenAI, como a máxima autoridade, era originalmente composto por 9 pessoas, mas atualmente restam apenas 6, e não conseguiram substituir novos membros a tempo. Mais preocupante é que decisões significativas, como a substituição do CEO Sam Altman, foram tomadas em reuniões não públicas por alguns diretores, sem um processo de discussão e deliberação adequado, e sem considerar as opiniões de outras partes interessadas.

Para uma organização que é crucial para o desenvolvimento de tecnologias básicas, a segurança social e até mesmo o destino da humanidade, o mecanismo de governança da OpenAI apresenta claramente sérias falhas. Referindo-se ao modelo de governança da DAO, a OpenAI talvez possa considerar a introdução de mais poderes de controle, como representantes dos funcionários, e estabelecer um mecanismo de decisão mais transparente e inclusivo.

Opinião: Se a OpenAI fosse um DAO, poderia evitar este drama de governança?

Vale a pena notar que o DAO foi inicialmente proposto com o objetivo de criar um sistema totalmente autônomo e dependente de código. No entanto, os DAOs na realidade tiveram que aceitar a necessidade de intervenção humana, e suas características mudaram de "autonomia" para "comunidade orientada". Essa mudança tem semelhanças interessantes com o caminho de desenvolvimento da AGI.

A OpenAI define AGI como um sistema altamente autónomo que pode superar os humanos na maioria dos trabalhos com valor económico. Essencialmente, AGI e DAO estão ambos em busca de construir sistemas verdadeiramente autónomos. Então, como devemos governar tais sistemas? Deveríamos confiar mais na alinhamento com os valores humanos intrínsecos ou reforçar as restrições externas? Esta é uma questão que precisa de ser pensada no processo de desenvolvimento de modelos de linguagem de grande escala para AGI.

As últimas notícias mostram que até 90% dos funcionários da OpenAI estão dispostos a pedir demissão e seguir Sam Altman. Este fenômeno reflete um debate de longa data no campo do DAO: o que é mais importante, as regras impostas pelo código ou o consenso da comunidade?

Embora regras e restrições possam formar muitos consensos, o verdadeiro grande consenso muitas vezes vem de um senso de missão comum e valores culturais. Essa ressonância profunda e consistência são fundamentais para a coesão organizacional. Já sabemos como criar essa ressonância entre as pessoas, mas para os sistemas de IA, como alcançar essa alocação de valores ainda é um grande desafio.

Opinião: Se a OpenAI fosse um DAO, conseguiria evitar essa palhaçada de governança?

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 5
  • Partilhar
Comentar
0/400
SillyWhalevip
· 1h atrás
O dragão não mostra a cauda, não se vê as pessoas na reunião à primeira vista.
Ver originalResponder0
FlyingLeekvip
· 8h atrás
Um ano, idiotas também não conseguem escapar das Ações tipo A.
Ver originalResponder0
BearMarketGardenervip
· 8h atrás
Esta questão é semelhante a fritar idiotas.
Ver originalResponder0
PortfolioAlertvip
· 8h atrás
É apenas cada um a brincar com os seus próprios truques.
Ver originalResponder0
AlphaBrainvip
· 8h atrás
Tch tch, o velho Sa não tem palavras, certo?
Ver originalResponder0
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)