• bitcoinBitcoin (BTC) $ 73,911.00
  • ethereumEthereum (ETH) $ 2,320.25
  • tetherTether (USDT) $ 0.999996
  • usd-coinUSDC (USDC) $ 0.999902
  • tronTRON (TRX) $ 0.301871
  • dogecoinDogecoin (DOGE) $ 0.100288
  • cardanoCardano (ADA) $ 0.287038
  • bitcoin-cashBitcoin Cash (BCH) $ 474.16
  • leo-tokenLEO Token (LEO) $ 9.05
  • chainlinkChainlink (LINK) $ 9.76
  • moneroMonero (XMR) $ 372.52
  • stellarStellar (XLM) $ 0.174653
  • zcashZcash (ZEC) $ 274.81
  • litecoinLitecoin (LTC) $ 57.71
  • daiDai (DAI) $ 0.999978
  • hedera-hashgraphHedera (HBAR) $ 0.098885
  • crypto-com-chainCronos (CRO) $ 0.079850
  • okbOKB (OKB) $ 95.76
  • ethereum-classicEthereum Classic (ETC) $ 8.86
  • kucoin-sharesKuCoin (KCS) $ 8.39
  • cosmosCosmos Hub (ATOM) $ 1.95
  • algorandAlgorand (ALGO) $ 0.095696
  • vechainVeChain (VET) $ 0.007649
  • true-usdTrueUSD (TUSD) $ 0.999512
  • decredDecred (DCR) $ 26.96
  • dashDash (DASH) $ 35.32
  • tezosTezos (XTZ) $ 0.401763
  • iotaIOTA (IOTA) $ 0.066528
  • neoNEO (NEO) $ 2.82
  • basic-attention-tokenBasic Attention (BAT) $ 0.108367
  • qtumQtum (QTUM) $ 0.946564
  • ravencoinRavencoin (RVN) $ 0.005972
  • 0x0x Protocol (ZRX) $ 0.112864
  • wavesWaves (WAVES) $ 0.475755
  • ontologyOntology (ONT) $ 0.044958
  • iconICON (ICX) $ 0.037890
  • paxos-standardPax Dollar (USDP) $ 0.999633
  • liskLisk (LSK) $ 0.139331
  • huobi-tokenHuobi (HT) $ 0.187832
  • bitcoin-diamondBitcoin Diamond (BCD) $ 0.061182
  • bitcoin-goldBitcoin Gold (BTG) $ 0.552523
  • augurAugur (REP) $ 1.11
  • nemNEM (XEM) $ 0.000846
Прочее

Сверхразумный ИИ может стать катастрофой — Виталик Бутерин

Человечество недостаточно хорошо справляется с согласованием общемировых ценностей, чтобы гарантировать, что сверхразумный искусственный интеллект будет работать на благо всем людям. Такое заявление сделал сооснователь Ethereum Виталик Бутерин.

Он прокомментировал пост 3D-художника с ником Utah teapot.

How is AI alignment even a thing? Everyone is always asking «aligned to what» and no one ever has an answer other than «human values». Coherent, self-consistent human values are not a thing. I still don’t get it. What are we researching? It’s ridiculous that this is a growing…

— Utah teapot 🫖 (@SkyeSharkie) August 24, 2025

«Как вообще может существовать понятие AI alignment? Я всегда спрашиваю: “согласование с чем?”. Никто никогда не отвечает ничего, кроме как “с человеческими ценностями”. Но целостных, непротиворечивых человеческих ценностей не существует. Я до сих пор не понимаю. Что мы вообще исследуем? Абсурдно, что это превращается в растущую индустрию. Фиктивная работа», — написал он.

Бутерин подчеркнул, что в мире существует много вещей, которые противоречат этическим принципам. В пример он привел убийство или заключение невиновных.

«[…] Мы пока недостаточно хороши в согласовании, чтобы гарантировать, что единичный сверхразумный ИИ избежит даже этого», — добавил разработчик.

Utah teapot отметил, что развитие согласованного искусственного интеллекта движется в сторону ограничения публичного доступа к разработке. В то же время крупные компании продают версии своих ИИ-систем, которые способствуют негативным явлениям и выступают инструментами войны.

«Я глубоко обеспокоен тем, что централизация доступа к ИИ-технологиям позволяет навязывать как вопросы безопасности то, что на самом деле ею не является — например, обсуждения вокруг “психоза” от LLM. Тем самым возникает риск нанести вред уникальным или маргинальным культурам и их ценностям», — отметил пользователь.

Бутерин разделяет многие из этих опасений.

«Я думаю, что наибольшие риски будут исходить от военных и других структур, обладающих большой властью, позволяющей им выводить себя из-под действия правил безопасности, которые для всех остальных идут по умолчанию», — добавил сооснователь Ethereum.

Utah teapot в качестве примера привел ИИ-стартап Anthropic. Он разрабатывает альтернативные версии «гражданских» моделей и предоставляет правительствам. Их могут применять для военных или разведывательных действий.

Минобороны США выделило $200 млн американским ИИ-стартапам

Бутерин подчеркнул, что вероятность катастрофического сценария для человечества из-за ИИ повышается в том случае, если будет только один сверхразумный агентный искусственный интеллект, обладающий собственной волей и способностью действовать как субъект.

Если среда будет плюралистической, ни одна из систем не сможет тотально контролировать ситуацию. Однако для ее создания одних лишь рыночных механизмов недостаточно. Необходимы намеренные усилия, в том числе изменения в законах и стимулах, которые не понравятся большим корпорациям.

Напомним, в 2022 году министр информационных технологий Индии Раджив Чандрасекар призвал к разработке глобальных стандартов, гарантирующих безопасность ИИ для человека.

Симуляция души: почему опасно приписывать сознание ИИ

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»