HTNews.ru
  • Обзоры
  • Эксклюзивы
  • Компьютеры
  • Смартфоны
  • Софт
  • Производство
  • Космос
Нет результатов
View All Result
HTNews.ru
  • Обзоры
  • Эксклюзивы
  • Компьютеры
  • Смартфоны
  • Софт
  • Производство
  • Космос
Нет результатов
View All Result
HTNews.ru
Нет результатов
View All Result

Экс-сотрудник OpenAI опубликовал пугающий прогноз развития искусственного интеллекта. Полный разбор

by Мария Котляревская
7 июня, 2024
in IT, Город будущего, Искусственный интеллект, Нейросети
Время чтения: 4 мин.
Экс-сотрудник OpenAI опубликовал пугающий прогноз развития искусственного интеллекта. Полный разбор

Бывший сотрудник компании OpenAI (разработчик ChatGPT) из команды Superalignment Леопольд Ашенбреннер опубликовал 165-страничный документ о стремительном развитии искусственного интеллекта в ближайшее десятилетие. Сильный ИИ (AGI) появится уже в 2027 году и по уровню интеллекта не будет уступать человеку.

В материале «Осведомленность о ситуации: Предстоящее десятилетие» Ашенбреннер на основе своего опыта работы в OpenAI делает ряд смелых прогнозов.

Экс-сотрудник OpenAI Леопольд Ашенбреннер

Глава I. Когда создадут ИИ, который будет умнее человека?

В первой главе специалист утверждает, что американский бизнес готовится вложить триллионы долларов в развитие вычислительных мощностей для усиления систем искусственного интеллекта. Цель — создать сильный ИИ, который в профессиональной терминологии называется AGI (Artificial general intelligence). Он появится к 2027 году.

Первая страница документа Леопольда Ашенбреннера

Экс-сотрудник OpenAI пришел к этому выводу, проанализировав темп прогресса в области машинного обучения. С 2019 по 2023 год (от GPT-2 до GPT-4) был пройден путь от моделей с интеллектом дошкольника до моделей, сравнимых с одаренным старшеклассником.

Всего за 4 года произошел гигантский скачок и ожидается, что к 2025-2026 годам ИИ превзойдет выпускников колледжей, а к концу этого десятилетия станут намного умнее, чем человечество.

В офисе OpenAI

Рост возможностей систем искусственного интеллекта обеспечивают многомиллиардные инвестиции. Ашенбреннер предупреждает, что этот прогресс приведет к большой конкуренции в области ИИ между США и Китаем. Впоследствии, все это может вылиться в полномасштабный конфликт между двумя государствами, считает он.

Глава II. Цукерберг, Amazon и Microsoft создают сверхинтеллект

Во второй главе Леопольд Ашенбреннер считает, что когда ИИ достигнет уровня, сопоставимого с человеком (AGI), прогресс на этом не остановится. Сотни миллионов AGI смогут автоматизировать ИИ-исследования, «сжав» десятилетие прогресса в один год. Это означает быстрый переход от человеческого уровня к ИИ-системам, которые превзойдут человека.

Ашенбреннер сравнивает AGI и сверхинтеллект с атомной и водородной бомбами, говоря о том, что атомная бомба является просто эффективным оружием, а водородная бомба является мощным устройством, которое может уничтожить все на своем пути. Есть большая вероятность, что сверхинтеллект будет обеспечивать военное преимущество некоторым странам. Это может привести человечество к самому напряженному и нестабильному периоду истории.

Иллюстрация

До конца этого десятилетия, по мере роста доходов от ИИ, триллионы долларов будут вложены в создание GPU (графических процессоров), дата-центров и электростанций. Чем активнее будет развиваться AI, тем быстрее произойдет промышленная мобилизация, в том числе увеличение производства электроэнергии на десятки, а может на сотни процентов.

Доказательства, которые приводит Леопольд Ашенбреннер: Марк Цукерберг купил 350 тысяч специализированных для работы с ИИ процессоров Nvidia H100, компания Amazon приобрел дата-центр мощностью в 1 ГВт рядом с атомной электростанцией, а Microsoft и OpenAI работают над кластером стоимостью 100 миллиардов долларов (это практически стоимость Международной космической станции).

Nvidia H100

Тем не менее, главные национальные лаборатории, которые занимаются разработкой искусственного интеллекта, пока считают безопасность второстепенной задачей.

Ужу спустя несколько лет станет ясно, что секреты разработки AGI будут иметь решающее значение в области национальной обороны. Потребуется продвинутая система безопасности, как на военных объектах, указывает в своем отчете бывший сотрудник OpenAI.

Нужно полностью изолировать дата-центры с внедрением системы безопасности. Специалисты должны работать в закрытых защищенных помещениях со строгим контролем со стороны спецслужб, утверждается в документе. На данный момент ведущие лаборатории не готовы к защите от полномасштабного промышленного шпионажа и у них нет времени на подготовку, учитывая быстрые сроки создания систем ИИ.

Главы IV и V. Сценарии развития сверхинтеллекта

В последних двух главах Ашенбреннер рассматривает возможные сценарии, которые связаны с развитием ИИ и достижением сверхинтеллекта (ASI).

Какие могут быть препятствия для «интеллектуального взрыва»? Например, ограниченные вычислительные мощности и их недостаток для проведения экспериментов, которые могут замедлить прогресс, но не остановит рост ИИ-систем.

На протяжении всего документа Леопольд Ашенбреннер призывает очень серьезно отнестись к перспективе появления сверхразума. Для человечества это бесспорно может дать большие возможности и снизить временные затраты на решение сложных задач, но ошибки и просчеты могут привести к мировой катастрофе. И самое главное — необходимо обеспечить надежный контроль ИИ на каждом этапе его развития.

Кто такой Леопольд Ашенбреннер?

Леопольд Ашенбреннер был уволен из американской компании OpenAI в этом году. Он утверждает, что из-за поднятия вопроса о недостаточных мерах безопасности в компании. Сотрудник делился некими документами, которые, по мнению работодателя, содержали конфиденциальную информацию.

Но Ашенбреннер отрицает, что в опубликованном  документе были секретные сведения. В нем лишь упоминается о планах компании по созданию AGI (общего искусственного интеллекта, ИИ с разумом человеческого уровня) к 2027-2028 годам.

Стоит отметить, что Леопольд Ашенбреннер один из немногих сотрудников компании, который не подписал письмо с просьбой о возвращении Сэма Альтмана на пост главы компании после того, как совет директоров его уволил.

Сэм Альтмэн, глава OpenAI

Команда Superalignment,в которой состоял Леопольд Ашенбреннер занималась контролем развития AI. Главная цель команды заключалась в удержании искусственного интеллекта в безопасных рамках, чтобы ИИ не стал непредсказуемым и не нанес вреда человечеству.

Следите за новостями в наших социальных сетях: ВКонтакте и Telegram.

Tags: Open AI
ПоделитьсяПоделитьсяОтправить

Похожие записи

Высокотехнологичные гаджеты и нейросети 2025 года: ноутбук, смартфон, планшет и сюрприз
MSI

Высокотехнологичные гаджеты и нейросети 2025 года: ноутбук, смартфон, планшет и сюрприз

29 апреля, 2025
Илон Маск предлагает выкупить OpenAI за $97.4 млрд. Новая эра ИИ?
Искусственный интеллект

Илон Маск предлагает выкупить OpenAI за $97.4 млрд. Новая эра ИИ?

11 февраля, 2025
Масштабный ИИ-проект Stargate стоимостью $500 млрд – это научная фантастика?
IT

Масштабный ИИ-проект Stargate стоимостью $500 млрд – это научная фантастика?

2 февраля, 2025
Первый трейлер игры Ведьмак 4. Драма – на максимум
IT

Первый трейлер игры Ведьмак 4. Драма – на максимум

13 декабря, 2024
Путину показали первое российское «умное» кольцо для мониторинга здоровья
Искусственный интеллект

Путину показали первое российское «умное» кольцо для мониторинга здоровья

12 декабря, 2024
Российский грузовик Navio L5 получил полный автопилот
IT

Российский грузовик Navio L5 получил полный автопилот

10 декабря, 2024
Наглый чат-бот Grok стал доступен бесплатно
IT

Наглый чат-бот Grok стал доступен бесплатно

7 декабря, 2024
В России созданы роботы-собаки для наблюдения за стройплощадками
Город будущего

В России созданы роботы-собаки для наблюдения за стройплощадками

5 декабря, 2024

© 2022 HTNews - Новости высоких технологий

Нет результатов
View All Result
  • Обзоры
  • Эксклюзивы
  • Компьютеры
  • Смартфоны
  • Софт
  • Производство
  • Космос