Hoje, com o rápido desenvolvimento da tecnologia de IA, como alcançar um equilíbrio entre inovação e ética tornou-se uma questão espinhosa. Recentemente, um incidente ocorrido na plataforma Holoworld levantou reflexões profundas sobre esta questão.



Um desenvolvedor tentou lançar um modelo de IA capaz de gerar informações falsas altamente realistas na Holoworld. No entanto, essa ação imediatamente ativou o mecanismo de 'guardião ético' da plataforma. Este mecanismo utiliza tecnologia de IA para identificar automaticamente os potenciais perigos do modelo, e em seguida, submete-o a vários 'juízes ecológicos' de boa reputação para revisão anônima. A identidade desses juízes é verificada através de SBT (token vinculado à alma), garantindo a justiça e a confiabilidade do processo de revisão.

Após uma avaliação rigorosa, o modelo de IA foi considerado como uma violação das diretrizes da comunidade, sendo assim restringido na sua capacidade de disseminação pública. Ao mesmo tempo, este ato de criação foi registrado, afetando diretamente a pontuação de reputação do desenvolvedor. Este evento destaca a abordagem única da Holoworld na gestão de questões éticas relacionadas à IA.

A estrutura de governança e ética descentralizada em IA adotada pela Holoworld inclui principalmente três aspectos:

Primeiro, a plataforma cria uma 'restrição rígida' de execução automática ao codificar princípios éticos básicos em seu protocolo subjacente ou contrato inteligente. Por exemplo, exige que todo o conteúdo adulto gerado tenha uma marca d'água digital ou proíbe a geração de conteúdo específico para fraudes.

Em segundo lugar, para algumas zonas cinzentas controversas, a Holoworld adotou um sistema semelhante a um 'juri'. A plataforma selecionará aleatoriamente um grupo de utilizadores que detêm 'SBT de governança' para decidir sobre o conteúdo controverso, e a sua decisão coletiva será implementada. Este mecanismo evita efetivamente o problema de decisões unilaterais que podem surgir em plataformas centralizadas.

Por fim, a Holoworld estabeleceu um mecanismo de responsabilização rastreável. Todas as publicações de modelos e ações de geração de conteúdo estão vinculadas à identidade descentralizada (DID) do criador. Qualquer comportamento considerado malicioso causará danos irreversíveis à reputação on-chain do criador, proporcionando aos usuários um forte incentivo econômico para cumprir as regras.

O mecanismo do Holoworld oferece uma nova abordagem para resolver os desafios éticos no desenvolvimento da IA. Ele não apenas protege a inovação, mas também mantém o desenvolvimento saudável da comunidade. No futuro da governança da IA, soluções descentralizadas semelhantes podem desempenhar um papel cada vez mais importante.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 4
  • Repostar
  • Compartilhar
Comentário
0/400
ILCollectorvip
· 13h atrás
Isso ainda protege a inovação?
Ver originalResponder0
LayoffMinervip
· 13h atrás
Um pouco de terra, um pouco doce, começando a ficar rico.
Ver originalResponder0
DisillusiionOraclevip
· 13h atrás
Há plataformas que conseguem gerir a IA assim e ainda se pode chamar isso de inovação?
Ver originalResponder0
FunGibleTomvip
· 13h atrás
Isso parece um pouco centralizado.
Ver originalResponder0
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)