Когда речь заходит об искусственном интеллекте, вспоминается сюжет фильма «Матрица»: разумные машины управляют миром, создавая симуляцию действительности для людей и подпитываясь теплом и энергией их тел. Страшно? А так ли далеко мы ушли от «Матрицы»? Насколько ли сегодня умны алгоритмы соцсетей? И велик ли у нас риск стать «бесполезным классом»? В этих вопросах мы разберемся в нашем сегодняшнем материале.

Искусственный интеллект и критерии интеллектуальности

Согласно определению американского информатика Джона Маккарти, искусственный интеллект — это способность интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека. С философской точки зрения, предпосылки учения об ИИ были заложены Рене Декартом в его теории «механистического материализма» еще в XVII веке. Декарт первым из философов предложил рассматривать мир как некий сложный механизм; его метод познания, таким образом, концентрировался на сведении сложных явлений к более простым и анализе взаимосвязей между ними. «Механицизм» Декарта можно противопоставить «анимизму» — учению, признающему наличие в живых организмах сверхъестественной силы или, иными словами, души. С технологической же точки зрения, история ИИ тесно связана с развитием вычислительной техники. Тогда как первые цифровые вычислительные машины были созданы еще в XVII веке, тема ИИ стала особенно актуальной к середине XX века, когда скорость работы вычислительных машин значительно превысила человеческую.

Одна из ключевых проблем современного учения об ИИ — отсутствие точных критериев, которые определяют разумность машины. Наиболее известный эмпирический тест для решения данной проблемы был предложен английским математиком Аланом Тьюрингом. Согласно тесту Тьюринга, говорить о разумности машины можно тогда, когда она будет способна поддерживать полноценный диалог с человеком, и человек не догадается, что разговаривает с машиной. Сильные стороны теста Тьюринга — это возможность вести разговор на любую тему, использовать иронию и юмор, а также предлагать к обсуждению провокационные и неоднозначные вопросы. Так, машина сможет пройти тест, только если она способна использовать естественный язык, рассуждать и обосновывать свои рассуждения, а также обучаться. Из множества созданных вариаций ИИ только единицы смогли пройти тест Тьюринга. По материалам СМИ, такими исключениями стали английский веб-собеседник Сleverbot (2011г.) и бот Евгений Густман (Eugene Gustman), представляющийся 13-летним мальчиком из Одессы.

Несмотря на низкие показатели прохождения ИИ теста Тьюринга, разработчики ИИ чаще всего и не ставят задачу пройти тест как минимум по трем причинам. Во-первых, тест критикуют из-за его излишнего антропоцентризма (направленности на человека). ИИ же, по мнению разработчиков, не должен имитировать человека — ведь, например, самолетостроение не ставит себе задачей точное воссоздание птичьего полета. Во-вторых, тест Тьюринга не учитывает эмоциональный фактор, упуская из внимания то, что поведение человека не всегда можно (и следует) толковать разумно. В-третьих, тест проверяет исключительно способность ИИ вести беседу. Он не проверяет, способен ли ИИ к иной высокоинтеллектуальной деятельности, например, принятию решений, выдвижению оригинальных идей или творчеству. В свою очередь, именно способность к творчеству многие писатели-фантасты (Айзек Азимов, Дэн Симмонс) выделяют как критерий разумности машин.

Искусственный интеллект сегодня

Представляет ли сегодня ИИ опасность для человечества в духе «Матрицы»? Скорее нет, ведь, несмотря на громкие медиа-сообщения об успехах конкретных ИИ-систем, мы (пока что) имеем дело с искусственным интеллектом узкого назначения («слабым» ИИ).

Согласно теории американского философа Джона Серла — автора идеи о дихотомии между «сильным» и «слабым» ИИ, «сильный» ИИ обладает рядом уникальных свойств. Так, он может принимать решения в условиях неопределенности, имеет общее представление о реальности и артикулирует его, способен планировать, общаться на естественном языке и обучаться. Кроме того, как в «Матрице», «сильный» ИИ может комбинировать указанные способности для достижения определенных целей — и самое страшное здесь, как раз-таки, его способность к постановке (неизвестных) целей. ИИ узкого назначения целей не ставит; напротив, он призван решать конкретные, сложно алгоритмизируемые задачи. «Слабый» ИИ уже широко присутствует в нашей жизни.

Яркие примеры его применения — автоматизация и роботизация «умных» промышленных процессов, автоматическое слежение за порядком и прогнозирование чрезвычайных ситуаций для работы экстренных служб и система «умный дом». «Умный дом» или «смарт-хаус» позволяет следить за безопасностью жилья, контролировать расход воды и электроэнергии, обеспечивать климат-контроль, автоматически делать уборку и заказывать продукты. Благодаря умению анализировать и систематизировать большие массивы данных машины становятся необходимыми помощниками врачей при постановке диагнозов и прогнозировании вероятности генетических заболеваний. Кроме того, анализ больших данных верно служит бизнесу и политикам для продвижения в социальных сетях.

Последствия развития искусственного интеллекта

Опасен не «слабый» ИИ. Опасны, в первую очередь, последствия его применения. Ключевая (и все возрастающая опасность) — распространение «постправды» — информационного потока, который намеренно конструируется в медиа и социальных сетях с целью манипулирования сознанием людей и создания альтернативной, виртуальной реальности. Ключевой инструмент создателей «постправды» — алгоритмы социальных сетей, которые позволяют распределить пользователей на группы, основываясь на информации из их профилей, и предложить им свою повестку дня и наиболее привлекательную рекламу. Формируя миллиарды микро-дискурсов для (групп) пользователей, социальные сети способствуют информационной изоляции каждого из нас — особенно в контексте уменьшения числа личных контактов и обмена мнениями. Кроме того, таргетированные микро-дискурсы потенциально отучают пользователей от критического мышления и нивелируют их способность принимать альтернативные точки зрения.

Во-вторых, как подчеркивает всемирно известный футуролог Юваль Харари, расширение применения ИИ приведет к исчезновению многих существующих профессий и появлению класса так называемых «бесполезных» людей. Проблемой же, по мнению Харари, станет не содержание этих людей (с этим справится безусловный базовый доход), а их занятость и удовлетворенность. Футуролог предполагает, что «бесполезные» люди будут проводить время, играя в компьютерные игры на основе виртуальной реальности. Но будут ли они знать, что это игры?

Если будут (а какое-то время будут точно), миру грозит пандемия депрессии, ведь отсутствие занятности и признания — частые внешние драйверы этого заболевания. Уже сегодня технологии дарят людям все больше свободного времени, а депрессия скоро обещает стать болезнью № 1 в мире, обойдя сердечно-сосудистые заболевания. Результат ли это развития технологий, в частности ИИ? Виртуализации общения? Роста уровня жизни? Ответов на эти вопросы мы не знаем, но, очевидно, психотерапевты вряд ли быстро попадут в класс «бесполезных», разве что если ИИ научится эмпатии.

Ведь рисовать уже научился…

Читать далее: Как искусственный интеллект изменит жизненное пространство человека?

Автор: Марина Рабинович