Оценить:
 Рейтинг: 0

Искусственный интеллект. С неба на землю

<< 1 ... 7 8 9 10 11
На страницу:
11 из 11
Настройки чтения
Размер шрифта
Высота строк
Поля

Начало 2023 года было не только взлетом ChatGPT, но и началом борьбы за безопасность. Тогда вышло открытое письмо от Илона Маска, Стива Возняка и еще более тысячи экспертов и руководителей отрасли ИИ с призывом приостановить разработку продвинутого ИИ.

Организация Объединенных Наций

В июле 2023 года генеральный секретарь ООН Антониу Гутерриш поддержал идею создать на базе ООН орган, который бы сформулировал глобальные стандарты по регулированию сферы ИИ.

Такая площадка могла бы действовать по аналогии с Международным агентством по атомной энергии (МАГАТЭ), Международной организацией гражданской авиации (ИКАО) или Международной группой экспертов по изменению климата (МГЭИК). Также он обозначил пять целей и задач такого органа:

– помощь странам в получении максимальной пользы от ИИ;

– устранение существующих и будущих угроз;

– выработка и реализация международных механизмов мониторинга и контроля;

– сбор экспертных данных и их передача мировому сообществу;

– изучение ИИ для «ускорения устойчивого развития».

В июне 2023 года он также обращал внимание на то, что «ученые и эксперты призвали мир к действию, объявив искусственный интеллект экзистенциальной угрозой человечеству наравне с риском ядерной войны».

А еще раньше, 15 сентября 2021 года, верховный комиссар ООН по правам человека Мишель Бачелет призвала наложить мораторий на использование нескольких систем, использующих алгоритмы искусственного интеллекта.

Open AI

В конце 2023 года OpenAI (разработчик ChatGPT) объявила о создании стратегии по превентивному устранению потенциальных опасностей ИИ. Особое внимание уделяется предотвращению рисков, связанных с развитием технологий.

Эта группа будет работать вместе с командами:

– систем безопасности, которая занимается решением существующих проблем, таких как предотвращение расовых предубеждений в ИИ;

– Superalignment, которая изучает работу сильного ИИ и как он будет работать, когда превзойдет человеческий интеллект.

Концепция безопасности OpenAI также включает оценку рисков по следующим категориям: кибербезопасность, ядерная, химическая, биологическая угроза, убеждение и автономия модели.


Вы ознакомились с фрагментом книги.
Приобретайте полный текст книги у нашего партнера:
<< 1 ... 7 8 9 10 11
На страницу:
11 из 11