• bitcoinBitcoin (BTC) $ 88,049.00
  • ethereumEthereum (ETH) $ 2,973.60
  • tetherTether (USDT) $ 0.999670
  • usd-coinUSDC (USDC) $ 0.999815
  • tronTRON (TRX) $ 0.282904
  • dogecoinDogecoin (DOGE) $ 0.131479
  • cardanoCardano (ADA) $ 0.368638
  • bitcoin-cashBitcoin Cash (BCH) $ 593.29
  • chainlinkChainlink (LINK) $ 12.52
  • moneroMonero (XMR) $ 465.85
  • leo-tokenLEO Token (LEO) $ 8.45
  • zcashZcash (ZEC) $ 444.38
  • stellarStellar (XLM) $ 0.215550
  • litecoinLitecoin (LTC) $ 77.15
  • hedera-hashgraphHedera (HBAR) $ 0.112057
  • daiDai (DAI) $ 0.999951
  • crypto-com-chainCronos (CRO) $ 0.095273
  • okbOKB (OKB) $ 107.73
  • ethereum-classicEthereum Classic (ETC) $ 12.26
  • kucoin-sharesKuCoin (KCS) $ 10.77
  • algorandAlgorand (ALGO) $ 0.113703
  • cosmosCosmos Hub (ATOM) $ 1.97
  • vechainVeChain (VET) $ 0.010684
  • dashDash (DASH) $ 39.59
  • true-usdTrueUSD (TUSD) $ 0.995655
  • tezosTezos (XTZ) $ 0.446669
  • iotaIOTA (IOTA) $ 0.089618
  • basic-attention-tokenBasic Attention (BAT) $ 0.213900
  • decredDecred (DCR) $ 16.57
  • neoNEO (NEO) $ 3.59
  • qtumQtum (QTUM) $ 1.28
  • ravencoinRavencoin (RVN) $ 0.007006
  • 0x0x Protocol (ZRX) $ 0.121596
  • eosEOS (EOS) $ 0.165158
  • wavesWaves (WAVES) $ 0.685196
  • iconICON (ICX) $ 0.055180
  • paxos-standardPax Dollar (USDP) $ 0.999026
  • ontologyOntology (ONT) $ 0.055345
  • liskLisk (LSK) $ 0.196983
  • huobi-tokenHuobi (HT) $ 0.212229
  • nemNEM (XEM) $ 0.001201
  • bitcoin-goldBitcoin Gold (BTG) $ 0.528969
  • augurAugur (REP) $ 0.861605
Прочее

Сверхразумный ИИ может стать катастрофой — Виталик Бутерин

Человечество недостаточно хорошо справляется с согласованием общемировых ценностей, чтобы гарантировать, что сверхразумный искусственный интеллект будет работать на благо всем людям. Такое заявление сделал сооснователь Ethereum Виталик Бутерин.

Он прокомментировал пост 3D-художника с ником Utah teapot.

How is AI alignment even a thing? Everyone is always asking «aligned to what» and no one ever has an answer other than «human values». Coherent, self-consistent human values are not a thing. I still don’t get it. What are we researching? It’s ridiculous that this is a growing…

— Utah teapot 🫖 (@SkyeSharkie) August 24, 2025

«Как вообще может существовать понятие AI alignment? Я всегда спрашиваю: “согласование с чем?”. Никто никогда не отвечает ничего, кроме как “с человеческими ценностями”. Но целостных, непротиворечивых человеческих ценностей не существует. Я до сих пор не понимаю. Что мы вообще исследуем? Абсурдно, что это превращается в растущую индустрию. Фиктивная работа», — написал он.

Бутерин подчеркнул, что в мире существует много вещей, которые противоречат этическим принципам. В пример он привел убийство или заключение невиновных.

«[…] Мы пока недостаточно хороши в согласовании, чтобы гарантировать, что единичный сверхразумный ИИ избежит даже этого», — добавил разработчик.

Utah teapot отметил, что развитие согласованного искусственного интеллекта движется в сторону ограничения публичного доступа к разработке. В то же время крупные компании продают версии своих ИИ-систем, которые способствуют негативным явлениям и выступают инструментами войны.

«Я глубоко обеспокоен тем, что централизация доступа к ИИ-технологиям позволяет навязывать как вопросы безопасности то, что на самом деле ею не является — например, обсуждения вокруг “психоза” от LLM. Тем самым возникает риск нанести вред уникальным или маргинальным культурам и их ценностям», — отметил пользователь.

Бутерин разделяет многие из этих опасений.

«Я думаю, что наибольшие риски будут исходить от военных и других структур, обладающих большой властью, позволяющей им выводить себя из-под действия правил безопасности, которые для всех остальных идут по умолчанию», — добавил сооснователь Ethereum.

Utah teapot в качестве примера привел ИИ-стартап Anthropic. Он разрабатывает альтернативные версии «гражданских» моделей и предоставляет правительствам. Их могут применять для военных или разведывательных действий.

Минобороны США выделило $200 млн американским ИИ-стартапам

Бутерин подчеркнул, что вероятность катастрофического сценария для человечества из-за ИИ повышается в том случае, если будет только один сверхразумный агентный искусственный интеллект, обладающий собственной волей и способностью действовать как субъект.

Если среда будет плюралистической, ни одна из систем не сможет тотально контролировать ситуацию. Однако для ее создания одних лишь рыночных механизмов недостаточно. Необходимы намеренные усилия, в том числе изменения в законах и стимулах, которые не понравятся большим корпорациям.

Напомним, в 2022 году министр информационных технологий Индии Раджив Чандрасекар призвал к разработке глобальных стандартов, гарантирующих безопасность ИИ для человека.

Симуляция души: почему опасно приписывать сознание ИИ

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»