В эпоху стремительного развития технологий ИИ вопрос о том, как достичь баланса между инновациями и этикой, стал непростой задачей. Недавний инцидент на платформе Holoworld вызвал глубокие размышления людей по этому поводу.



Разработчик попытался опубликовать на Holoworld AI-модель, способную генерировать высокореалистичную ложную информацию. Однако это действие сразу же вызвало механизм 'этического стража' платформы. Этот механизм использует технологии AI для автоматического выявления потенциальной опасности модели, после чего она передается нескольким благонадежным 'экологическим судьям' для анонимной оценки. Личности этих судей проверяются с помощью SBT (токены, привязанные к душе), что обеспечивает справедливость и надежность процесса оценки.

После тщательной оценки эта AI модель была признана нарушающей правила сообщества, поэтому ей была ограничена возможность публичного распространения. В то же время это действие было зафиксировано, что напрямую повлияло на рейтинг репутации разработчика. Этот инцидент подчеркивает уникальный подход Holoworld к решению этических вопросов в области AI.

Holoworld использует децентрализованную AI-управление и этическую рамку, которая в основном включает три аспекта:

Во-первых, платформа создает автоматическое "жесткое ограничение", закодировав основные этические нормы в базовый протокол или смарт-контракт. Например, обязательно требовать, чтобы все создаваемые материалы для взрослых имели цифровую водяную метку, или запрещать создание определенного контента, используемого для мошенничества.

Во-вторых, для некоторых спорных серых зон Holoworld использует систему, подобную «присяжным». Платформа случайным образом выбирает группу пользователей, обладающих «управляющим SBT», для вынесения решения по спорному содержанию, и их коллективное решение будет реализовано. Этот механизм эффективно предотвращает проблемы односторонних решений, которые могут возникнуть на централизованных платформах.

В конце концов, Holoworld создала механизм подотчетности с возможностью отслеживания. Все действия по выпуску моделей и генерации контента связаны с децентрализованной идентичностью (DID) создателя. Любое действие, признанное злонамеренным, приведет к необратимому ущербу для онлайновой репутации создателя, что с экономической точки зрения обеспечивает пользователям мощный стимул соблюдать правила.

Механизм Holoworld предлагает новый подход к решению этических проблем, возникающих в процессе развития ИИ. Он не только защищает инновации, но и поддерживает здоровое развитие сообщества. В будущем подобные децентрализованные решения могут играть все более важную роль в управлении ИИ.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 4
  • Репост
  • Поделиться
комментарий
0/400
ILCollectorvip
· 13ч назад
Разве это что-то защищает инновации?
Посмотреть ОригиналОтветить0
LayoffMinervip
· 13ч назад
Немного грубо, немного сладко, начинаю быстро разбогатеть.
Посмотреть ОригиналОтветить0
DisillusiionOraclevip
· 13ч назад
Какая инновация в том, что платформа управляет ИИ таким образом?
Посмотреть ОригиналОтветить0
FunGibleTomvip
· 13ч назад
Эта штука кажется немного централизованной.
Посмотреть ОригиналОтветить0
  • Закрепить