• bitcoinBitcoin (BTC) $ 88,094.00
  • ethereumEthereum (ETH) $ 2,974.50
  • tetherTether (USDT) $ 0.999695
  • usd-coinUSDC (USDC) $ 0.999881
  • tronTRON (TRX) $ 0.283414
  • dogecoinDogecoin (DOGE) $ 0.131596
  • cardanoCardano (ADA) $ 0.368561
  • bitcoin-cashBitcoin Cash (BCH) $ 598.66
  • chainlinkChainlink (LINK) $ 12.53
  • moneroMonero (XMR) $ 465.09
  • leo-tokenLEO Token (LEO) $ 8.46
  • zcashZcash (ZEC) $ 447.51
  • stellarStellar (XLM) $ 0.216293
  • litecoinLitecoin (LTC) $ 77.35
  • hedera-hashgraphHedera (HBAR) $ 0.112130
  • daiDai (DAI) $ 1.00
  • crypto-com-chainCronos (CRO) $ 0.095408
  • okbOKB (OKB) $ 107.44
  • ethereum-classicEthereum Classic (ETC) $ 12.30
  • kucoin-sharesKuCoin (KCS) $ 10.77
  • algorandAlgorand (ALGO) $ 0.113688
  • cosmosCosmos Hub (ATOM) $ 1.97
  • vechainVeChain (VET) $ 0.010702
  • dashDash (DASH) $ 39.44
  • true-usdTrueUSD (TUSD) $ 0.995753
  • tezosTezos (XTZ) $ 0.449107
  • iotaIOTA (IOTA) $ 0.089775
  • basic-attention-tokenBasic Attention (BAT) $ 0.214544
  • decredDecred (DCR) $ 16.57
  • neoNEO (NEO) $ 3.58
  • qtumQtum (QTUM) $ 1.28
  • ravencoinRavencoin (RVN) $ 0.007016
  • 0x0x Protocol (ZRX) $ 0.121174
  • eosEOS (EOS) $ 0.166090
  • wavesWaves (WAVES) $ 0.689097
  • iconICON (ICX) $ 0.054304
  • paxos-standardPax Dollar (USDP) $ 0.999047
  • ontologyOntology (ONT) $ 0.054920
  • liskLisk (LSK) $ 0.196550
  • huobi-tokenHuobi (HT) $ 0.211769
  • nemNEM (XEM) $ 0.001216
  • bitcoin-goldBitcoin Gold (BTG) $ 0.529028
  • augurAugur (REP) $ 0.869567
Прочее

Сверхразумный ИИ может стать катастрофой — Виталик Бутерин

Человечество недостаточно хорошо справляется с согласованием общемировых ценностей, чтобы гарантировать, что сверхразумный искусственный интеллект будет работать на благо всем людям. Такое заявление сделал сооснователь Ethereum Виталик Бутерин.

Он прокомментировал пост 3D-художника с ником Utah teapot.

How is AI alignment even a thing? Everyone is always asking «aligned to what» and no one ever has an answer other than «human values». Coherent, self-consistent human values are not a thing. I still don’t get it. What are we researching? It’s ridiculous that this is a growing…

— Utah teapot 🫖 (@SkyeSharkie) August 24, 2025

«Как вообще может существовать понятие AI alignment? Я всегда спрашиваю: “согласование с чем?”. Никто никогда не отвечает ничего, кроме как “с человеческими ценностями”. Но целостных, непротиворечивых человеческих ценностей не существует. Я до сих пор не понимаю. Что мы вообще исследуем? Абсурдно, что это превращается в растущую индустрию. Фиктивная работа», — написал он.

Бутерин подчеркнул, что в мире существует много вещей, которые противоречат этическим принципам. В пример он привел убийство или заключение невиновных.

«[…] Мы пока недостаточно хороши в согласовании, чтобы гарантировать, что единичный сверхразумный ИИ избежит даже этого», — добавил разработчик.

Utah teapot отметил, что развитие согласованного искусственного интеллекта движется в сторону ограничения публичного доступа к разработке. В то же время крупные компании продают версии своих ИИ-систем, которые способствуют негативным явлениям и выступают инструментами войны.

«Я глубоко обеспокоен тем, что централизация доступа к ИИ-технологиям позволяет навязывать как вопросы безопасности то, что на самом деле ею не является — например, обсуждения вокруг “психоза” от LLM. Тем самым возникает риск нанести вред уникальным или маргинальным культурам и их ценностям», — отметил пользователь.

Бутерин разделяет многие из этих опасений.

«Я думаю, что наибольшие риски будут исходить от военных и других структур, обладающих большой властью, позволяющей им выводить себя из-под действия правил безопасности, которые для всех остальных идут по умолчанию», — добавил сооснователь Ethereum.

Utah teapot в качестве примера привел ИИ-стартап Anthropic. Он разрабатывает альтернативные версии «гражданских» моделей и предоставляет правительствам. Их могут применять для военных или разведывательных действий.

Минобороны США выделило $200 млн американским ИИ-стартапам

Бутерин подчеркнул, что вероятность катастрофического сценария для человечества из-за ИИ повышается в том случае, если будет только один сверхразумный агентный искусственный интеллект, обладающий собственной волей и способностью действовать как субъект.

Если среда будет плюралистической, ни одна из систем не сможет тотально контролировать ситуацию. Однако для ее создания одних лишь рыночных механизмов недостаточно. Необходимы намеренные усилия, в том числе изменения в законах и стимулах, которые не понравятся большим корпорациям.

Напомним, в 2022 году министр информационных технологий Индии Раджив Чандрасекар призвал к разработке глобальных стандартов, гарантирующих безопасность ИИ для человека.

Симуляция души: почему опасно приписывать сознание ИИ

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»