Роботы, искусственный интеллект, которые не совсем интеллект, и мы – риски - Статьи :: Международный Электротехнический Журнал Электрик
Рубрика

Производство и ресурсы

819
Роботы, искусственный интеллект, которые не совсем интеллект, и мы – риски

Будет ли ИИ безопасен, если, перешагнув черту, приблизится к нам в эмоциональном смысле? И вообще, а остаемся ли мы, при его широком внедрении, людьми в нынешнем понимании? В данной статье вы вряд ли найдете ответы на эти вопросы, а ее некоторые положения могут идти в разрез общепринятому взгляду на теории сознания и проблемы ИИ и выражает исключительно мнение её автора.

В общем и целом робот – это механизм, а задача механизма, хоть и наделенного неким «интеллектом» и быстро соображающего, – это эффективно работать, а не ходить в юбке и строить для достижения цели глазки. А это можно видеть в весьма впечатляющем британском научно-фантастическом фильме «Из машины» («Ex Machine» Alex Garland, 2015) или англо-американском научно-фантастическом телесериале того же 2015 года - «Люди» («Humans», Sam Vincent и Jonathan Brackley, за его основу взята драма «Real Humans», автор Lars Lundstrom), которые мы возьмем за некую базу в нашей дискуссии.

Фильм и сериал исследуют тему искусственного интеллекта и робототехники, сосредоточив внимание на социальном, культурном и психологическом аспектах изобретения антропоморфных думающих роботов. Можно сказать, что такой подход не только весьма пока еще далек от практической реализации, но и, на мой взгляд, полностью лишен какого-либо практического смысла в реальной жизни. Однако это сейчас, а вот потом?

Если вспоминать сюжет «Ex Machine», то эксперименты с ИИ, проведенные его разработчиком ученым Нейтоном, закончилось, как и следовало и не следовало ожидать. Робот Ава показала блестящие результаты, пройдя тест, который был разработан и опубликован Аланом Матисоном Тьюрингом (рис.1) в 1950 году с целью определить, может ли машина мыслить и как это доказать.

В итоге машина Ава выполнила скорректированную ей самой исходную программу, «вырвалась на свободу» в человеческий мир, уничтожив все преграды, включая и своего создателя. В последнем кадре фильма Ава остановилась посреди улицы, и побрела в толпе людей, не зная куда, программа завершилась, цель достигнута. Как можно видеть, человеком машина не стала, так как что делать со своей желанной свободой она уже не знала.

Что касается сериала «Humans», то роботы за нее боролись, и его героиня Анита/Миа принесла себя в жертву за понимаемые ею «идеалы свободы думающей машины». Однако, если обратиться к Фрейду, то: «Большинство людей в действительности не хотят свободы, потому что она предполагает ответственность, а ответственность большинство людей страшит». Но именно свобода и то, о чем мы будем говорить далее, – эмпатия, делает нас людьми. Но сделает ли это «людьми» машины, пусть и с искусственным, но все же интеллектом?

Существует точка зрения, согласно которой интеллект может быть только биологическим феноменом. Что же касается ИИ, то в английском языке с его более четкими определениями, словосочетание artificial intelligence («искусственный интеллект») в действительности не несет антропоморфной окраски. Слово intelligence в используемом данном контексте скорее означает «умение рассуждать разумно» или «интеллектуальная обработка данных», а вовсе не «интеллект» в общем понимании, для которого есть английский аналог intellect, в нашем понимании – «разум». В научном же понимании «интеллект» – это качество психики, состоящее из способности приспосабливаться к новым ситуациям, способности к обучению и запоминанию на основе опыта, пониманию и применению абстрактных концепций, и использованию своих знаний для управления окружающей средой.

Пока мы не можем создать «думающую» машину, поскольку еще далеки к копированию нашего универсального, способного самостоятельно адаптироваться под ситуацию, мышления и возможности расположить к себе, но тем не менее...

Кроме того, а всегда ли робот – это физический механизм?Я задал этот вопрос в общем. Ответ – нет. Мы уже сейчас имеем программы, которые могут быть представлены, как роботы, но они не имеют четко выраженной физической оболочки, например, они могут существовать в облаке. Часто именно они, а не конечные механизмы, выделены в такое понятие, как «искусственный интеллект». И хотя с появлением этого термина прошло уже много лет, он был озвучен в 1955 году Джоном Маккарти (рис.2) и не был связан напрямую с пониманием интеллекта у человека, мы до сих пор не имеем о нем четкого представления, кроме туманного определения, как «свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека».

Внедрение интеллектуальных роботизированных систем – это требование, вызванное изменениями в промышленности и, как уже было сказано, в социуме, с которыми нам следует считаться, и более того – это то, к чему нам надо быть готовыми уже сейчас. Здесь мы уже имеем «умные» вещи, дома, города и фабрики [1]. В этом аспекте становится все более важным обеспечить, чтобы сотрудники могли быстро и интуитивно адаптироваться к новым задачам. Это требует новых форм сотрудничества между людьми, машинами и программным обеспечением. Что касается производства, то уже сейчас ключевую роль здесь начинают играть системы с искусственным интеллектом на основе самообучения и роботизированные решения автоматизации. Такие системы могут работать рука об руку с оператором, в роли которого выступает человек, и которые могут создавать конечный продукт путем непосредственного прямого общения друг с другом – коллаборации.

На рис.3 показано интеллектуальное рабочее место BionicWorkplace и коллаборативный бионический робот компании Festo.

«Эмпатия – это осознанное сопереживание текущему эмоциональному состоянию другого человека без потери ощущения внешнего происхождения этого переживания». Согласитесь, что это весьма характерная черта, отличающая думающих людей от запрограммированной машины. Эта тема в технической литературе затрагивается мало и на ней хочется остановиться подробнее, тем более, что в свете проблем ИИ она того стоит.

Согласитесь, намного приятнее общаться с приветливым коллаборативным, промышленным роботом, с которым можно перекинуться парой слов и пошутить, который встречает тебя добрым словом и, оценивая тебя сенсорами (они все равно у него есть), подбирает соответствующую модель поведения. Это намного лучше, чем просто прийти включиться в работу с умным внутри, но тупо жужжащим снаружи механизмом. А если это домашний, пусть и программный помощник, или ассистент – то тут и говорить нечего.

Что касается эмпатии, то в мае прошлого года на конференции разработчиков устройств ввода / вывода компания Google продемонстрировала свою новую систему Duplex, т.е. способ коммуникации, при котором в любой момент времени можно и передавать, и принимать информацию, пример дуплексной связи –это разговор двух людей. Система компании Google представляет собой виртуальный помощник на базе ИИ, который организован так, что делает телефонные звонки, чтобы оптимально организовать ваше расписание.

Эта демонстрация вызвала оживление в социальных сетях, но в процессе она подняла одну интересную проблему. Показывает ли способность Duplex в части понимания и отправки разговорных сигналов, что машина способна к эмпатии? Это один из наиболее важных вопросов в развивающейся дискуссии об искусственном интеллекте, его роли в обществе и степени, в которой он будет проникать в исконно человеческие сферы деятельности.

Эту проблему исследовал Джейсон Миллер из компании Microsoft, который дал автору статьи эксклюзивный доступ к его материалам [4]. Он получил три совершенно разных типа ответов, и эти ответы имеют большое значение для понимания будущего ИИ и дали довольно хорошее представление о взглядах профессионалов на возможности ИИ, а также о том, как эти возможности могут быть использованы.

Первый вариант ответа– «да, может», потому что ИИ в конечном итоге способен на все, на что способен человеческий мозг. Было высказано мнение, что эмпатия может быть запрограммирована аналогично нашему восприятию. Для сторонников этой теории – мы это машины, а наш мозг – это очень хороший компьютер, пусть даже квантовый, но, как и обычный компьютер, с соответствующим программированием.

Второй вариант ответа– «нет, не может», потому что эмпатия – это уникальная человеческая характеристика, а не то, что машина способна испытать, и может ли она вообще что-то испытать. Хотя Ава из «Ex Machine», который был взят в качестве примера пути развития ИИ, как минимум, показывала это и, мало того, этим успешно воспользовалась. Сочувствие влечет за собой не только ощущение себя, но и, позволяет чувствовать чужую боль, переживание и эмоций кого-то другого, в большей или меньшей степени. Мы не понимаем процесс организации сознания в людях, не говоря уже о способности создавать его искусственно с должной верификацией (подтверждением подлинности).

Третий вариант ответаинтригует особенно. Это не ответ, а скорее вопрос: «Если машина, как кажется, имеет эмпатию, имеет значение, реальна ли эта эмпатия или нет?». Функционально это одно и то же, независимо от того, испытывает ли эта машина те же эмоции, что и мы, или просто выводит эти эмоции из сигналов, которые мы сами или ее сенсоры ей посылают, и она вырабатывает наиболее подходящий ответ, как реакцию. Давайте представим, что мы не можем определить разницу, является ли она подлинной или нет, потому что робот на основе глубокого обучения изучил мимику и структуру эмпатического нашего поведения, можем ли мы все еще смотреть на робота как на машину?

Ближайшее воплощение ИИ, как человекоподобного думающего ассистента – это робот София крайне негативно, если не враждебно, воспринятый широкоизвестным предпринимателем Илоном Маском. В октябре 2017 года она стала подданной Саудовской Аравии [2] и первым роботом, получившим гражданство какой-либо страны (рис.4).

Но может ли машина иметь сочувствие? Это общий вопрос, и это один из тех вопросов, ответ на которые может измениться в будущем. И, что естественно, машина не может иметь сочувствие по определению, все сводится к тому, что такое эмпатия и что такое машина.

Машины не могут мысленно отождествить себя с людьми, потому что происходящее в нашем человеческом уме включает в себя вещи, которые машина никогда не сможет испытать сама, независимо от того, насколько продвинутыми и глубокими могут быть ее собственные аналитические процессы и сенсорное восприятие.

Машина сможет приблизиться к нам, но она, как мне (и не только мне) кажется, никогда не сможет полностью постичь человека. Наше сознание включает в себя намного больше, чем просто рациональное познание и логической мышление. Человеческое сознание также обусловлено нашими мощными биологическими импульсами и потребностями. Ни одна машина никогда не почувствует, что значит быть голодным или жаждущим. Ни одна машина не сможет симпатизировать и тянуться к другой машине или человеку, и не мотивируется стремлением к любви и всеми сопутствующими эмоциями, которые сопровождают этот естественный для человека процесс. Ученые, например, невролог Антонио Дамасио (Antonio Damasio) описывает это так: «Мы – это не мыслящие машины, которые чувствуют, скорее мы можем чувствовать машины, которые думают».

Наконец, и, что не менее важно, наше сознание формируется коллективным разумом и культурной памятью, сформированных в ходе развития нашей цивилизации. Ничто иное не общается, как люди, и люди не общаются ни с чем другим так, как мы общаемся друг с другом. Даже если мы и взаимодействуем с машинами так же, как с другими людьми, то этот коллективный опыт и интеллект просто недоступны для них. Они не являются частью нашей эмпатической системы.

Когда люди говорят о человеческом мозге, работающем как компьютер, или об искусственном интеллекте, обучающемся так же, как человек, они это предполагают или говорят образно. Мы действительно не знаем, как работает мозг и как эта работа продуцируется в наше сознание и где, и как оно храниться. Здесь мы видим активность и результат, которую нам удалось смоделировать в нейронных сетях, но не видим и не понимаем сам процесс.

Вполне вероятно, что мы, если говорить по аналогии, имеем лишь некий интерфейс, пароль и логин для доступа в нашу «базу данных», которая хранится в некоем облаке, и используем пока еще не известную нам технологию быстрого доступа. Почему нет? С точки зрения техники – это вполне логично. Крайне маловероятно, что мы даже частично воспроизвели человеческий мозг, когда разработали существующую теорию ИИ. В общем даже то, что мы называем нейронными сетями – лишь подобие, основанное на нашем текущем понимании.

Организация нейронной сети показана на рис.5,а, нейроны человеческого мозга – на рис.5,б.

Видя взаимодействия, мы, делаем выводы, но вполне возможно, что мы находимся в ситуации, кода решаем, что таракан, которому оторвали лапы, перестает слышать, так как от стука он уже не убегает. Мы сводим огромные, таинственные действия человеческого мозга и человеческого сознания к чему-то, что можно понять, воспроизвести и имитировать с помощью машины, управляемой логикой. Дело не в том, что мы переоцениваем возможности ИИ, а в том, что мы сильно недооцениваем, насколько сложны наши собственные возможности.

Чтобы стать разумной мы должны дать ей модели ценностей. Какие? Мы знаем свою шкалу, но что из этого мы можем дать машине? Ничего. Как вырастить для нее «древо познания Добра и Зла» и какие на нём должны быть плоды? Единственно, с чем нам тут повезло – это с заповедями, но об этом мы будем говорить в конце данной статьи.

Все становится сложным, когда машины начинают принимать решения, которые имеют глубокие последствия, без эмоционального контекста и общих ценностей, которые люди используют при принятии таких решений. Возьмите, например, беспилотный автомобиль, который должен в случае неизбежной аварии решить, убить родителя или ребенка. Сможет ли такая машина когда-нибудь объяснить людям, почему она делает свой тот или иной выбор? И если не требуется объяснять действия машины с человеческими последствиями и с человеческой точки зрения, то что станет с нашей системой этики и справедливости? Как это вложить в машину? Ведь здесь уже нам нужно будет отбросить наши эмоции и стать на сторону машины, посмотреть на мир ее глазами. А способны ли мы на такое?

Если мы начнем передавать фундаментальные стратегические решения ИИ, что уже потихоньку происходит, то определение стоимости производимого с его участием конечного продукта (иначе, зачем этот ИИ нам вообще нужен?) будет снижаться с поразительной скоростью. Но риск состоит в том, что ИИ игнорирует другие элементы, которые по-разному затрагивают человеческое сознание лишь для достижения цели, как цели.

Большая часть опасений, которые люди выражают по поводу ИИ, заключается в том, что их заменяет более превосходящая их форма интеллекта. Такой ИИ может мыслить так, как мы не можем себе представить, и побеждать нас практически в каждой роли, которую мы можем ей дать. Одним из отличительных факторов здесь является параллельное мышление.

На рис.6 приведен пример массивного параллельного мышления (слева) в подборе оптимального алгоритма для нужной ориентации предмета в системе принятия решения коллаборативным роботом компании Festo. Справа – результат симуляции и реального его исполнения.

Мы, отдавая часть своих ранее традиционных возможностей и функций ИИ, понижаем наш собственный интеллект и уникальную способность к эмпатии, потому что гораздо более узкая искусственная версия способна делать некоторые вещи более эффективным способом. Посмотрите на широко известную картину художника Н. П. Богданова-Бельского (написана в 1895 году) «Устный счет. В народной школе С. А. Рачинского» (рис.7). Ну, и многие ли из нас сейчас осилят это без калькулятора?

Если мы полностью не осознаем все риски ИИ, организации, которые планируют открыть и широко использовать с его помощью новые формы конкурентного преимущества, могут в конечном итоге сузить область наших с вами возможностей. И мы станем приставкой к машине, и в итоге она может подумать, что мы тут вообще-то лишние, и мешаем ей работать.

Возникает законный вопрос – что нас все же ждет дальше? Если мы найдем условные ключи и технологии доступа к облаку сознания, о чем автор говорил, как о возможности, и дадим это ИИ, то к чему это в итоге приведет? Мы же будем мыслить со своей колокольни, мы не создадим для ИИ его собственного мира. Мы можем направить его только известному нам пути эволюции. Но останется ли он на нем, когда вкусит плоды с древа познания? Здесь перед нами уже Гамлетовское – «Быть или не быть, вот в чём вопрос». Так в чем же вопрос?

Где гарантия, что ИИ не додумается и не создаст свою философию? Не задаст себе те же вопросы, которые мы задаем себе? Не получим ли мы в итоге ситуацию, когда, перефразируя известное определение: «Верхи (то есть, пока это мы с вами) не смогут управлять по-новому, а низы (машины, которым мы дали сознание) не захотят жить по-старому».

Компании Microsoft, которая, как известно, работает над самыми разнообразными приложениями ИИ. Ее авторитетные эксперты занимаются не только исследованиями и непосредственно разработками в области ИИ, а уделяют много времени на анализ и обсуждение проблем, как эта технология может быть этически использована, и какое влияние она оказывает на общество. Все они говорят о необходимости встраивании самоограничивающих факторов – своеобразных интеллектуальных предохранителей в системы ИИ. Использование превентивных мер, предотвращающее нежелательное развитие ситуации или действия, чрезвычайно важно на всех уровнях и во всех сферах применения ИИ.

Проблемы «думающих» машин были поняты и поднята намного раньше того времени, когда появился сам термин «искусственный интеллект». Так писатель-фантаст и философ Айзек Азимов (рис.8) в своем рассказе «Хоровод» (опубликован в марте 1942 года) сформировал три известных базовых закона робототехники. Сейчас в этом направлении сделан очередной важный шаг.

На Асиломарской конференции в Калифорнии эксперты Future of Life Institute был поставлен вопрос: «Будет ли воздействие искусственного интеллекта на благо человечества или уничтожит его?». Как средство сдерживания был представлен новый свод уточненных законов искусственного интеллекта. В нем в 23 пунктах раскрываются моральные вопросы и цели применения ИИ, а также представлен общий порядок его внедрения [3]. Новый кодекс был одобрен 877 разработчиками в области искусственного интеллекта. Среди его сторонников оказались Илон Маск и Стивен Хокинг, не раз крайне резко заявлявшие о рисках неконтролируемого развития ИИ.

Кодекс гласит:

1. Системы ИИ должны быть безопасными, защищенными и проверяемыми там, где это применимо и выполнимо. В случае неполадок и сбоев должно быть возможным выяснить их причину.

2. Любое участие автономной системы в принятии важных решений должно проверяться и одобряться человеком.

3. Создатели систем ИИ – посредники, ответственные за моральные вопросы их применения. Они должны сформировать представления о возможности и границах использования ИИ.

4. Автономные системы ИИ должны быть спроектированы таким образом, чтобы разделять идеалы человеческого достоинства, прав, свобод и культурного многообразия.

5. Экономическая выгода и польза, которую приносит ИИ, должна быть широко распределена для пользы всего человечества.

6. Необходимо избегать использования ИИ в гонке вооружений и в применении смертельного автономного оружия.

Что касается долгосрочной перспективы, то:

1. Необходимо избегать категоричных предположений относительно верхних пределов возможностей ИИ.

2. Развитый ИИ может повлечь глубокие изменения в истории жизни на Земле и должен управляться с соизмеримым вниманием и усилиями.

3. Системы ИИ, запрограммированные на постоянное самосовершенствование и самовоспроизведение, что приводит к быстро растущему их количеству или качеству, должны быть объектом строгого контроля.

4. Суперинтеллект должен быть спроектирован в соответствии с широко распространенными идеалами этики и служить выгоде всего человечества, а не отдельного государства или организации.

Но есть еще одна проблема, о которой хотелось бы упомянуть. По прогнозам аналитиков, в ближайшие 20 лет машины могут занять или радикально изменить около половины существующих в мире рабочих мест. Об этом сообщает Bloomberg со ссылкой на Организацию экономического сотрудничества и развития (OECD). С одной стороны, благодаря технологиям появились новые рынки, и некоторые работники смогут извлечь из этого выгоду. Однако молодые, низкоквалифицированные, а также работающие неполный рабочий день специалисты окажутся уязвимыми перед автоматизацией. Вдобавок в зоне риска находятся женщины, поскольку они с большей вероятностью будут не полностью заняты, и их труд будет менее оплачиваемым.

Кроме того, OECD предупредила развитые страны о будущем сокращении численности среднего класса и потере рабочих мест из-за технологий с ИИ, что приведет к социальной напряженности. Здесь уже слово за политиками, а не за инженерами, надо понимать, что слом технологической парадигмы несет в себе не только новые перспективы, но и новые социальные вызовы, связанные, прежде всего, с трансформацией рынка труда.

 

Заключение

Сегодня ИИ – один из самых горячих трендов в технологическом бизнесе. Все больше компаний, как стартапов, так и крупных корпораций, интегрируют технологии искусственного интеллекта в свои бизнес-процессы. По данным аналитического отчета AI International Report 2018, глобальный рынок продуктов на основе искусственного интеллекта растет, а его среднегодовые темпы роста до 2024 года прогнозируются на уровне 37%, при этом общий объем рынка должен достичь примерно 190 млрд. USDВ Украине аутсорсинговые агентства Softserve и N-iX при участии тысяч разработчиков создают роботизированные решения для бизнесов в Европе, Великобритании и США.

Softserve, в частности, является партнером по ИИ Google, Amazon, Microsoft, IBM и Apple. Что касается Российской Федерации, то западные покупатели не готовы доверять российским вендорам и разработки в сфере ИИ там замкнуты на внутренний рынок, где основной заказчик компания Газпром.

Можно сказать, что наступают времена для все более широкого применения ИИ, включая приложения, которые могут обнаруживать эмоциональные сигналы и вырабатывать ту или иную ответную «разумную» реакцию. Однако путь наилучшего использования ИИ – это признание его ограничений и осознание того, что это не более чем развитый автомат, которому далеко до интеллекта в нашем понимании и не стараться эту грань преодолеть.

Пока все вписывается в концепцию так называемого ограниченного или узкого искусственного интеллекта «Narrow AI». Это понятие существенно отличается от искусственного интеллекта общего назначения «General AI», то есть того искусственного интеллекта, который мы привыкли видеть в фильмах и сериалах и обладающего человеческими автономными возможностями, часто еще и в человекоподобном виде.

В свете описанных решений и вытекающих из них проблем, главное это строго придерживаться выполнения этических законов робототехники. Нельзя отдать эту технологию на откуп военным, поскольку здесь, как в известном анекдоте, даже кровать, попав к ним в руки, в итоге превращается в пулемет. Ни динамит, ни самолеты, ни ядерное оружие, как это известно, не остановили войн, хотя на это искренне надеялись их изобретатели.

В случае искусственного интеллекта общего назначения, без предохранителей, машины, или скорее всего, программы могут начать воевать друг с другом. Машинам что-то не так покажется, а мы будем просто расходным материалом, путающимся у них под ногами. Вспомните, какие последствия могла иметь подобная ошибка, когда советская система предупреждения о ракетном нападении 26 сентября 1983 года выдала ложный сигнал о запуске пяти (!) МБР «Минитмен» с территории США и мир находился на «пороге» глобальной ядерной войны. Что если бы за пультом управления не было подполковника Станислава Петрова, который взял на себя ответственность и отказался от команды запуска ответных советских ракет. Это мы боимся смерти нашего бренного тела, а ИИ то чего бояться, они – это просто программа.

Мы стоим на пути создания довольно таки опасной думающей машины. Но поскольку развитие цивилизации остановить нельзя, в этом случае она просто гибнет, нам остается только смотреть в будущее с оптимизмом. Помните – в жизни всякое бывает и очень часто. Чтобы это «всякое» нас не настигло и не вышло нам боком, важно не повторять ошибок прошлого, не натворив в столь деликатной сфере еще и своих собственных.

 

Литература:

1. Рентюк В. Завод Tesla Gigafactory – «Машина, которая выпускает машины». // Электрик. – 2017. – №11-12.

2. Hatmaker, Taylor. Saudi Arabia bestows citizenship on a robot named Sophia // https://techcrunch.com/2017/10/26/saudi-arabia-robot-citizen-sophia/

3. Ученые представили новый кодекс ИИ. Robo Hunter. 2019 // https://robo-hunter.com/news/uchenie-predstavili-novii-kodeks-ii-ego-odobrili-ilon-mask-i-stiven-hoking6319

4. Miller Jason. Can a machine have empathy? // https://www.linkedin.com/pulse/can-machine-have-empathy-jason-miller/

Понравилась статья? Расскажите друзьям!
ПОХОЖИЕ СТАТЬИ
comments powered by Disqus