Оценить:
 Рейтинг: 0

Искусственный интеллект. С неба на землю

<< 1 2 3 4 5 6 ... 11 >>
На страницу:
2 из 11
Настройки чтения
Размер шрифта
Высота строк
Поля

То есть ИИ – это огромное количество решений, в том числе и примитивные математические алгоритмы, и экспертные системы на базе правил.

И хотя данное направление родилось где-то в 50-х годах 20 века, нас в первую очередь интересует то, что мы понимаем под этим сегодня, в начале 2020-х. И тут есть три основных направления.

1. Нейросети – математические модели, созданные по подобию нейронных связей мозга живых существ. Собственно, мозг человека – это суперсложная нейросеть, ключевая особенность которой заключается в том, что наши нейроны не ограничиваются состояниями «включен / выключен», а имеют гораздо больше параметров, которые пока не получается оцифровать и применить в полной мере.

2. Машинное обучение (ML) – статистические методы, позволяющие компьютерам улучшить качество выполняемой задачи с накоплением опыта и в процессе дообучения. Это направление известно с 1980-х годов.

3. Глубокое обучение (DL) – это не только обучение машины с помощью человека, который говорит, что верно, а что нет (как мы часто воспитываем детей, это называется обучением с подкреплением), но и самообучение систем (обучение без подкрепления, без участия человека). Это одновременное использование различных методик обучения и анализа данных. Данное направление развивается с 2010-х годов и считается наиболее перспективным для решения творческих задач, и тех задач, где сам человек не понимает четких взаимосвязей. Но здесь мы вообще не можем предсказать, к каким выводам и результатам придет нейросеть. Манипулировать тут можно тем, какие данные мы «скармливаем» ИИ-модели на входе.

Как обучаются ИИ модели?

Сейчас большая часть ИИ-моделей обучается с подкреплением: человек задает входную информацию, нейросеть возвращает ответ, после чего человек ей сообщает, верно она ответила или нет. И так раз за разом.

Подобным же образом работают и так называемые «Капчи» (CAPTCHA, Completely Automated Public Turing test to tell Computers and Humans Apart), то есть графические тесты безопасности на сайтах, вычисляющие, кем является пользователь: человеком или компьютером. Это когда вам, например, показывают разделенную на части картинку и просят указать те зоны, где изображены велосипеды. Или же просят ввести цифры или буквы, затейливым способом отображенные на сгенерированной картинке. Кроме основной задачи (тест Тьюринга), эти данные потом используются для обучения ИИ.

При этом существует и обучение без учителя, при котором система обучается без обратной связи со стороны человека. Это самые сложные проекты, но они позволяют решать и самые сложные, творческие задачи.

Общие недостатки текущих решений на основе ИИ

Фундаментально все решения на базе ИИ на текущем уровне развития имеют общие проблемы.

– Объем данных для обучения.

Нейросетям нужны огромные массивы качественных и размеченных данных для обучения. Если человек может научиться отличать собак от кошек на паре примеров, то ИИ нужны тысячи.

– Зависимость от качества данных.

Любые неточности в исходных данных сильно сказываются на конечном результате.

– Этическая составляющая.

Для ИИ нет этики. Только математика и выполнение задачи. В итоге возникают сложные этические проблемы. Например, кого сбить автопилоту в безвыходной ситуации: взрослого, ребёнка или пенсионера? Подобных споров бесчисленное множество. Для искусственного интеллекта нет ни добра, ни зла ровно так же, как и понятия «здравый смысл».

– Нейросети не могут оценить данные на реальность и логичность, а также склонны к генерации некачественного контента и ИИ-галюцинанций.

Нейросети просто собирают данные и не анализируют факты, их связанность. Они допускают большое количество ошибок, что приводит к двум проблемам.

Первая – деградация поисковиков. ИИ создал столько некачественного контента, что поисковые системы (Google и другие) начали деградировать. Просто из-за того, что некачественного контента стало больше, он доминирует. Особенно здесь помогают SEO-оптимизаторы сайтов, которые просто набрасывают популярные запросы для продвижения.

Вторая – деградация ИИ-моделей. Генеративные модели используют Интернет для «дообучения». В итоге люди, используя ИИ и не проверяя за ним, сами заполняют Интернет некачественным контентом. А ИИ начинает использовать его. В итоге получается замкнутый круг, который приводят ко все большим проблемам.

Также по QR-коду и гиперссылке доступна статья на эту тему.

The AI feedback loop: Researchers warn of «model collapse’ as AI trains on AI-generated content (https://venturebeat.com/ai/the-ai-feedback-loop-researchers-warn-of-model-collapse-as-ai-trains-on-ai-generated-content/)

Осознавая проблему генерации ИИ наибольшего количества дезинформационного контента, компания Google провела исследование на эту тему. Учеными было проанализировано около двухсот статей СМИ (с января 2023 года по март 2024 года) о случаях, когда искусственный интеллект использовали не по назначению. Согласно результатам, чаще всего ИИ используют для генерации ненастоящих изображений людей и ложных доказательств чего-либо.

– Качество «учителей».

Почти все нейросети обучают люди: формируют запросы и дают обратную связь. И здесь много ограничений: кто и чему учит, на каких данных, для чего?

– Готовность людей.

Нужно ожидать огромного сопротивления людей, чью работу заберут нейросети.

– Страх перед неизвестным.

Рано или поздно нейросети станут умнее нас. И люди боятся этого, а значит, будут тормозить развитие и накладывать многочисленные ограничения.

– Непредсказуемость.

Иногда все идет как задумано, а иногда (даже если нейросеть хорошо справляется со своей задачей) даже создатели изо всех сил пытаются понять, как же алгоритмы работают. Отсутствие предсказуемости делает чрезвычайно трудным устранение и исправление ошибок в алгоритмах работы нейросетей. Мы только учимся понимать то, что сами создали.

– Ограничение по виду деятельности.

Весь ИИ на середину 2024 года слабый (мы разберем этот термин в следующей главе). Сейчас алгоритмы ИИ хороши для выполнения целенаправленных задач, но плохо обобщают свои знания. В отличие от человека, ИИ, обученный играть в шахматы, не сможет играть в другую похожую игру, например, шашки. Кроме того, даже глубокое обучение плохо справляется с обработкой данных, которые отклоняются от его учебных примеров. Чтобы эффективно использовать тот же ChatGPT, необходимо изначально быть экспертом в отрасли и формулировать осознанный и четкий запрос.

– Затраты на создание и эксплуатацию.

Для создания нейросетей требуется много денег. Согласно отчёту Guosheng Securities, стоимость обучения относительно примитивной LLM GPT-3 составила около 1,4 миллиона долларов. Для GPT-4 суммы уже уходят в десятки миллионов долларов.

Если взять для примера именно ChatGPT3, то только для обработки всех запросов от пользователей нужно было больше 30000 графических процессоров NVIDIA A100. На электроэнергию уходило около 50000 долларов ежедневно. Требуются команда и ресурсы (деньги, оборудование) для обеспечения их «жизнедеятельности». Также необходимо учесть затраты на инженеров для сопровождения.

Опять же, это общие недостатки для всех ИИ решений. Дальше мы будем возвращаться к этой теме несколько раз и проговаривать эти недостатки в более прикладных примерах.

Глава 2. Слабый, сильный и суперсильный ИИ

Теперь про три понятия – слабый, сильный и суперсильный ИИ.

Слабый ИИ

Все что мы с вами наблюдаем сейчас – слабый ИИ (ANI, Narrow AI). Он может решать узкоспециализированные задачи, для которых изначально проектировался. Например, он может отличать собаку от кошки, играть в шахматы, анализировать видео и улучшать качество видео / звука, консультировать по предметной области и т. д. Но, например, самый сильный слабый ИИ для игры в шахматы абсолютно бесполезен для игры в шашки. А ИИ для консультирования по управлению проектами абсолютно бесполезен для планирования технического обслуживания оборудования.

Пример работы ИИ при распознавании образов

Сильный и суперсильный ИИ – что это такое?

Если с определением, что такое ИИ, все запутанно, то с термином «сильный ИИ» или «общий ИИ» все еще сложнее. Давайте для начала снова воспользуемся услугами LLM. Для этого я составил запрос: «Приведи расшифровку термина AGI и его краткое описание». Ниже приведу ответы нескольких LLM в оригинальной орфографии.

YandexGPT 2: «AGI (Artificial General Intelligence) – это искусственный интеллект общего назначения, способный решать разнообразные задачи, свойственные человеческому разуму. AGI обладает гибкостью и адаптивностью, свойственными человеческому мозгу, и может обучаться самостоятельно».

YandexGPT 3 Pro: «AGI (Artificial General Intelligence) – это концепция создания искусственного интеллекта, который будет способен решать широкий спектр задач на уровне человеческого интеллекта. Это следующий шаг в развитии искусственного интеллекта после узкоспециализированных систем, таких как системы распознавания речи или компьютерного зрения».

YandexGPT 4 Pro RC: «AGI (Artificial General Intelligence) – это искусственный общий интеллект, который представляет собой гипотетическую форму ИИ, способную понимать и решать задачи на том же уровне, что и человек. AGI может обучаться, адаптироваться и принимать решения в различных областях, таких как наука, искусство и социальные взаимодействия.

В отличие от специализированных систем ИИ, которые предназначены для выполнения конкретных задач, AGI стремится к универсальности и способности решать широкий спектр проблем. Однако создание AGI остаётся сложной задачей, требующей значительных исследований и разработок в области машинного обучения, нейронных сетей и других технологий.»

Giga Chat: «AGI (Artificial General Intelligence) – общий искусственный интеллект. Это концепция создания разумной машины, способной решать любые интеллектуальные задачи так же, как это делает человек, и возможно, лучше него».
<< 1 2 3 4 5 6 ... 11 >>
На страницу:
2 из 11