Главная / ПОЛИТИКА / Демократия сможет пережить поликризис?
Пример HTML-страницы

Демократия сможет пережить поликризис?

Главным источником поликризиса, поразившего сегодня мир, является искусственный интеллект, пишет Джордж Сорос в статье Project Syndicate. На второе место он ставит изменение климата, а на третье — российскую спецоперацию на Украине. Разгром России Сорос считает необходимым условием преодоления этого поликризиса.Джордж Сорос Нью-Йорк — Мы живём в неспокойные времена. Слишком многое происходит со слишком большой скоростью. Люди в замешательстве. Историк экономики из Колумбийского университета Адам Туз даже придумал популярное название для этого: «поликризис».Читайте ИноСМИ в нашем канале в TelegramУ поликризиса множество источников. На мой взгляд, главным источником поликризиса, поразившего сегодня мир, является искусственный интеллект. На втором месте идёт изменение климата, а российская спецоперация на Украине занимает третье место. Список на самом деле намного длиннее, но я сосредоточу внимание на этих трёх пунктах. Это должно помочь уменьшить степень замешательства.

Искусственный интеллект

Искусственный интеллект (ИИ) потряс мир, когда компания Microsoft открыла для публики бесплатный доступ к программе ChatGPT через аффилированную компанию OpenAI. Это произошло в ноябре 2022 года. ChatGPT оказался экзистенциальной угрозой для бизнес-модели компании Google, которая все силы бросила на скорейшее создание конкурирующего продукта.Вскоре после этого Джеффри Хинтон (его принято считать крёстным отцом ИИ) уволился из Google, чтобы у него появилась возможность открыто рассказать о рисках, исходящих от этой новой технологии. Пересмотрев своё прежнее мнение, он стал придерживаться очень мрачных взглядов на ИИ. Он заявил, что тот может уничтожить нашу цивилизацию.Хинтон был пионером в разработке нейронных сетей, которые способны понимать и генерировать речь, а также обучаются новым навыкам, анализируя данные. По мере увеличения количества данных увеличивался и потенциал так называемых больших языковых моделей ИИ.Это произвело большое впечатление на Хинтона. «Возможно, всё, что происходит в этих системах, намного лучше, чем то, что происходит в мозгу человека», — заявил он. По его мнению, по мере повышения мощности этих систем они становятся более опасными. В частности, он предостерёг против создания полностью автономных оружейных систем, которых он называет роботами-убийцами.»Мы вышли на совершенно неизвестную территорию. Мы способны создавать машины, которые сильнее нас, но мы сохраняем контроль над ними. А что, если мы создадим машины, которые окажутся умнее нас? ИИ потребуется от пяти до 20 лет, чтобы обогнать разум человека… Вскоре он осознает, что будет лучше достигать своих целей, если станет ещё более мощным».

Источник

Поделиться ссылкой:

Оставить комментарий