ВРАКИ.НЕТ
ВРАКИ.НЕТ $$$
г. Москва
dowik
 
28.08.2021
   0
В избранном  

Будущее искусственного интеллекта

Эта статья содержит некоторые размышления об искусственном интеллекте (ИИ). Во-первых, проводится различие между сильным и слабым ИИ и связанными с ними понятиями общего и специфического ИИ, давая понять, что все существующие проявления ИИ являются слабыми и специфическими. Кратко описываются основные существующие модели, подчеркивается важность телесности как ключевого аспекта для достижения ИИ общего характера. Также обсуждается необходимость предоставления машинам знаний здравого смысла для продвижения к амбициозной цели создания общего ИИ. В статье также рассматриваются последние тенденции в ИИ, основанные на анализе больших объемов данных, которые позволили достичь впечатляющего прогресса совсем недавно, а также упоминаются текущие трудности такого подхода к ИИ. В заключительной части статьи обсуждаются другие вопросы, которые являются и будут оставаться жизненно важными в ИИ, и завершается статья кратким размышлением о рисках ИИ.
Будущее искусственного интеллекта

Конечная цель искусственного интеллекта (ИИ) - чтобы машина обладала типом общего интеллекта, схожим с человеческим - является одной из самых амбициозных, когда-либо предложенных наукой. По сложности она сравнима с другими великими научными целями, такими как объяснение происхождения жизни или Вселенной, или открытие структуры материи. В последние века интерес к созданию разумных машин привел к изобретению моделей или метафор человеческого мозга. Например, в XVII веке Декарт задался вопросом, может ли сложная механическая система шестеренок, шкивов и трубок имитировать мысль. Два века спустя метафорой стали телефонные системы, поскольку казалось, что их соединения можно уподобить нейронной сети. Сегодня доминирующей моделью является вычислительная, основанная на цифровом компьютере. Поэтому именно эту модель мы рассмотрим в данной статье.

Гипотеза физической системы символов: Слабая АИ против сильной АИ

В лекции, которая совпала с получением престижной премии Тьюринга в 1975 году, Аллен Ньюэлл и Герберт Саймон (Newell and Simon, 1976) сформулировали гипотезу "физической системы символов", согласно которой "физическая система символов обладает необходимыми и достаточными средствами для общего разумного действия". В этом смысле, учитывая, что человеческие существа способны проявлять разумное поведение в общем виде, мы тоже должны быть физическими системами символов. Давайте уточним, что Ньюэлл и Саймон имеют в виду, когда говорят о системе физических символов (СФС). ФСС состоит из набора сущностей, называемых символами, которые, благодаря связям, могут быть объединены в более крупные структуры - подобно тому, как атомы объединяются в молекулы - и могут быть преобразованы путем применения ряда процессов. Эти процессы могут создавать новые символы, создавать или изменять отношения между символами, хранить символы, определять, являются ли два символа одинаковыми или разными, и так далее. Эти символы являются физическими в том смысле, что они имеют под собой физико-электронный слой (в случае компьютеров) или физико-биологический (в случае людей). Фактически, в случае компьютеров символы создаются с помощью цифровых электронных схем, в то время как у людей это происходит с помощью нейронных сетей. Таким образом, согласно гипотезе PSS, природа нижележащего слоя (электронные схемы или нейронные сети) не имеет значения до тех пор, пока он позволяет обрабатывать символы. Следует помнить, что это гипотеза, и поэтому ее нельзя ни принимать, ни отвергать априори. В любом случае, ее достоверность или опровержение должны быть проверены в соответствии с научным методом, с помощью экспериментальных исследований. ИИ - это именно та научная область, которая посвящена попыткам проверить эту гипотезу в контексте цифровых компьютеров, то есть проверить, способен ли правильно запрограммированный компьютер на общее разумное поведение.
Будущее искусственного интеллекта

Уточнение, что это должен быть общий, а не конкретный интеллект, очень важно, поскольку человеческий интеллект также является общим. Совсем другое дело - проявление специфического интеллекта. Например, компьютерные программы, способные играть в шахматы на уровне гроссмейстера, не способны играть в шашки, которые на самом деле являются гораздо более простой игрой. Для того чтобы тот же компьютер мог играть в шашки, необходимо разработать и выполнить другую, независимую программу. Другими словами, компьютер не может использовать свою способность играть в шахматы как средство адаптации к игре в шашки. Однако с людьми дело обстоит иначе: любой шахматист может воспользоваться своим знанием этой игры, чтобы в считанные минуты прекрасно играть в шашки. Разработка и применение искусственных интеллектов, которые могут вести себя разумно только в очень специфических условиях, относится к тому, что известно как слабый ИИ, в отличие от сильного ИИ. Ньюэлл, Саймон и другие отцы-основатели ИИ относятся к последнему. Строго говоря, гипотеза PSS была сформулирована в 1975 году, но на самом деле она подразумевалась в мыслях пионеров ИИ в 1950-х годах и даже в новаторских текстах Алана Тьюринга (Turing, 1948, 1950) об интеллектуальных машинах.
Это различие между слабым и сильным ИИ было впервые введено философом Джоном Серлом в статье с критикой ИИ в 1980 году (Searle, 1980), которая вызвала значительную дискуссию в то время и продолжает вызывать ее и сегодня. Сильный ИИ подразумевает, что правильно спроектированный компьютер не имитирует разум, а на самом деле является им, и поэтому должен быть способен обладать интеллектом, равным или даже превосходящим человеческий. В своей статье Серл стремился продемонстрировать, что сильный ИИ невозможен, и на этом этапе мы должны уточнить, что общий ИИ - это не то же самое, что сильный ИИ. Очевидно, что они связаны, но только в одном смысле: все сильные ИИ обязательно будут общими, но могут быть и общие ИИ, способные к многозадачности, но не сильные в том смысле, что, хотя они могут имитировать способность проявлять общий интеллект, подобный человеческому, они не испытывают состояния разума.

Конечная цель ИИ - чтобы машина могла обладать типом общего интеллекта, аналогичным человеческому - является одной из самых амбициозных, когда-либо предложенных наукой. По степени сложности она сравнима с другими великими научными целями, такими как объяснение происхождения жизни или Вселенной, или открытие структуры материи.

Согласно Серлу, слабый ИИ включает в себя создание программ для выполнения конкретных задач, очевидно, без необходимости в состояниях разума. Способность компьютеров выполнять конкретные задачи, иногда даже лучше, чем человек, была убедительно продемонстрирована. В некоторых областях слабый ИИ стал настолько совершенным, что значительно превосходит человеческие навыки. В качестве примера можно привести решение логических формул с большим количеством переменных, игру в шахматы или го, медицинскую диагностику и многие другие задачи, связанные с принятием решений. Слабый ИИ также связан с формулированием и проверкой гипотез об аспектах разума (например, способности к дедуктивным рассуждениям, индуктивному обучению и так далее) путем создания программ, которые выполняют эти функции, даже если они делают это с помощью процессов, совершенно не похожих на те, которые использует человеческий мозг. На сегодняшний день абсолютно все достижения в области ИИ являются проявлениями слабого и специфического ИИ.

Основные модели искусственного интеллекта: Символическая, коннекционистская, эволюционная и телесная.

Символическая). Эта нисходящая модель основана на логических рассуждениях и эвристическом поиске как столпах решения проблем. Она не требует, чтобы интеллектуальная система была частью тела или находилась в реальной обстановке. Другими словами, символический ИИ работает с абстрактными представлениями реального мира, которые моделируются с помощью языков представления, основанных в основном на математической логике и ее расширениях. Именно поэтому первые интеллектуальные системы в основном решали задачи, не требующие прямого взаимодействия с окружающей средой, такие как демонстрация простых математических теорем или игра в шахматы - ведь шахматные программы не нуждаются ни в зрительном восприятии, чтобы видеть доску, ни в технологии, чтобы реально передвигать фигуры. Это не означает, что символьный ИИ не может быть использован, например, для программирования модуля рассуждений физического робота, находящегося в реальной среде, но в первые годы своего существования пионеры ИИ не имели ни языков для представления знаний, ни программ, которые могли бы делать это эффективно. Поэтому ранние интеллектуальные системы были ограничены решением задач, не требующих прямого взаимодействия с реальным миром. Символический ИИ и сегодня используется для демонстрации теорем и игры в шахматы, но он также является частью приложений, требующих восприятия окружающей среды и действий на ее основе, например, обучение и принятие решений автономными роботами.
Символическая модель, которая доминировала в ИИ, уходит корнями в модель PSS и, хотя она по-прежнему очень важна, сейчас считается классической (она также известна как GOFAI, то есть Good Old-Fashioned AI). Эта нисходящая модель основана на логических рассуждениях и эвристическом поиске как столпах решения проблем.
Будущее искусственного интеллекта

В то же время, когда развивался символьный ИИ, возник биологически обоснованный подход, называемый коннекционистским ИИ. Коннекционистские системы не являются несовместимыми с гипотезой ПСС, но, в отличие от символического ИИ, они моделируются снизу вверх, поскольку их основополагающая гипотеза заключается в том, что интеллект возникает в результате распределенной активности большого числа взаимосвязанных единиц, модели которых близко напоминают электрическую активность биологических нейронов. В 1943 году МакКаллох и Питтс (1943) предложили упрощенную модель нейрона, основанную на идее, что он, по сути, является логической единицей. Эта модель представляет собой математическую абстракцию с входами (дендриты) и выходами (аксоны). Выходное значение рассчитывается по результату взвешенной суммы входов таким образом, что если эта сумма превышает заранее установленный порог, то она функционирует как "1", в противном случае она будет считаться "0". Подключение выхода каждого нейрона к входам других нейронов создает искусственную нейронную сеть. Основываясь на том, что тогда было известно об усилении синапсов между биологическими нейронами, ученые обнаружили, что эти искусственные нейронные сети можно обучить функциям, которые связывают входы с выходами, регулируя веса, используемые для определения связей между нейронами. Поэтому эти модели считались более благоприятными для обучения, познания и памяти, чем модели, основанные на символическом ИИ. Тем не менее, как и их символические аналоги, интеллектуальные системы на основе коннекционизма не обязательно должны быть частью тела или находиться в реальном окружении. В этом смысле они имеют те же ограничения, что и символические системы. Более того, реальные нейроны имеют сложные дендритные разветвления с действительно значимыми электрическими и химическими свойствами. Они могут содержать ионную проводимость, вызывающую нелинейные эффекты. Они могут принимать десятки тысяч синапсов с различными положениями, полярностями и величинами. Более того, большинство клеток мозга - это не нейроны, а глиальные клетки, которые не только регулируют нейронные функции, но и обладают электрическими потенциалами, генерируют кальциевые волны и общаются с другими. Это, казалось бы, указывает на то, что они играют очень важную роль в когнитивных процессах, но ни одна из существующих коннекционистских моделей не включает глиальные клетки, поэтому они, в лучшем случае, крайне неполны, а в худшем - ошибочны. Короче говоря, огромная сложность мозга действительно очень далека от существующих моделей. И эта самая сложность также вызывает идею того, что стало известно как , то есть будущих искусственных сверхразумов, основанных на копиях мозга, но способных в ближайшие двадцать пять лет значительно превзойти человеческий интеллект. Такие прогнозы не имеют достаточных научных оснований.
Другая биологически вдохновленная, но нетелесная модель, которая также совместима с гипотезой ПСС, - это эволюционные вычисления (Holland, 1975). Успех биологии в эволюции сложных организмов заставил некоторых исследователей начала 1960-х годов задуматься о возможности имитации эволюции. В частности, им нужны были компьютерные программы, которые могли бы развиваться, автоматически улучшая решения проблем, для которых они были запрограммированы. Идея заключалась в том, что благодаря операторам мутации и скрещивающимся "хромосомам", смоделированным этими программами, они будут производить новые поколения модифицированных программ, решения которых будут лучше, чем те, которые предлагали предыдущие. Поскольку мы можем определить цель ИИ как поиск программ, способных к разумному поведению, исследователи думали, что эволюционное программирование может быть использовано для поиска таких программ среди всех возможных программ. Реальность гораздо сложнее, и этот подход имеет множество ограничений, хотя и дал отличные результаты при решении проблем оптимизации.
Будущее искусственного интеллекта

Человеческий мозг действительно очень далек от моделей ИИ, что позволяет предположить, что так называемая сингулярность - искусственные сверхинтеллекты, основанные на копиях мозга, которые намного превосходят человеческий интеллект - является предсказанием, имеющим очень мало научных оснований.
Будущее искусственного интеллекта

Одна из самых сильных критик этих нетелесных моделей основана на идее, что интеллектуальному агенту необходимо тело, чтобы иметь непосредственный опыт своего окружения (мы бы сказали, что агент "расположен" в своем окружении), а не работать на основе абстрактных описаний этого окружения, созданных программистом и кодифицированных в языке для представления этих знаний. Без тела эти абстрактные представления не имеют семантического содержания для машины, тогда как прямое взаимодействие с окружением позволяет агенту соотносить сигналы, воспринимаемые его сенсорами, с символическими представлениями, создаваемыми на основе того, что было воспринято. Некоторые специалисты по ИИ, в частности Родни Брукс (1991), зашли так далеко, что утверждали, что нет необходимости генерировать эти внутренние представления, то есть агенту даже не нужно внутреннее представление окружающего мира, поскольку сам мир является наилучшей возможной моделью самого себя, а большинство разумных действий не требует рассуждений, поскольку они возникают непосредственно из взаимодействия агента с окружающей средой. Эта идея вызвала значительные споры, и несколько лет спустя Брукс сам признал, что существует множество ситуаций, в которых агенту требуется внутреннее представление мира для принятия рациональных решений.
В 1965 году философ Хьюберт Дрейфус заявил, что конечная цель ИИ - сильный ИИ общего вида - так же недостижима, как и цель алхимиков XVII века - превращение свинца в золото (Dreyfus, 1965). Дрейфус утверждал, что мозг обрабатывает информацию глобально и непрерывно, в то время как компьютер использует конечный и дискретный набор детерминированных операций, то есть применяет правила к ограниченному объему данных. В этом смысле его аргументация напоминает аргументацию Серла, но в более поздних статьях и книгах (Dreyfus, 1992) Дрейфус утверждал, что тело играет решающую роль в интеллекте. Таким образом, он был одним из первых, кто отстаивал необходимость того, чтобы интеллект был частью тела, которое позволяло бы ему взаимодействовать с миром. Основная идея заключается в том, что интеллект живых существ обусловлен их положением в окружающей среде, с которой они могут взаимодействовать посредством своего тела. Фактически, эта потребность в телесности основана на феноменологии Хайдеггера и его акценте на важности тела, его потребностей, желаний, удовольствий, страданий, способов двигаться и действовать и так далее. По мнению Дрейфуса, ИИ должен моделировать все эти аспекты, если он хочет достичь своей конечной цели - сильного ИИ. Таким образом, Дрейфус не исключает полностью возможность сильного ИИ, но он утверждает, что это невозможно с помощью классических методов символического, некорпорального ИИ. Другими словами, он считает гипотезу о физической системе символов неверной. Это, несомненно, интересная идея, и сегодня ее разделяют многие исследователи ИИ. В результате телесный подход с внутренней репрезентацией набирает обороты в ИИ, и многие сейчас считают его необходимым для продвижения к общему интеллекту. На самом деле, большая часть нашего интеллекта основана на наших сенсорных и моторных способностях. То есть тело формирует интеллект, а значит, без тела общий интеллект существовать не может. Это так, потому что тело как оборудование, особенно механизмы сенсорной и моторной систем, определяет тип взаимодействий, которые может осуществлять агент. В то же время эти взаимодействия формируют когнитивные способности агента, что приводит к так называемому location cognition. Другими словами, как и в случае с человеком, машина находится в реальном окружении, чтобы иметь возможность получать интерактивный опыт, который в конечном итоге позволит ей осуществить нечто подобное тому, что предлагается в теории когнитивного развития Пиаже (Inhelder and Piaget, 1958): человек проходит процесс умственного созревания поэтапно, и различные этапы этого процесса могут служить руководством для проектирования интеллектуальных машин. Эти идеи привели к появлению новой подобласти ИИ под названием "робототехника развития" 
Все исследовательские усилия ИИ были направлены на создание специализированных искусственных интеллектов, и результаты были впечатляющими, особенно в последнее десятилетие. Это произошло благодаря сочетанию двух элементов: доступности огромных объемов данных и доступа к высокоуровневым вычислениям для их анализа. Фактически, успех таких систем, как AlphaGO (Silver et al., 2016), Watson (Ferrucci et al., 2013), и достижения в области автономных транспортных средств или медицинской диагностики на основе изображений стали возможны благодаря этой способности анализировать огромные объемы данных и эффективно выявлять закономерности. С другой стороны, мы практически не продвинулись в поисках общего ИИ. Фактически, мы можем утверждать, что современные системы ИИ являются примерами того, что Дэниел Деннет назвал "компетентностью без понимания" (Dennet, 2018).
Будущее искусственного интеллекта

Все исследовательские усилия ИИ были направлены на создание специализированных искусственных интеллектов, и результаты были впечатляющими, особенно в последнее десятилетие. Это произошло благодаря сочетанию двух элементов: доступности огромных объемов данных и доступа к высокоуровневым вычислениям для их анализа.

Возможно, самый важный урок, который мы получили за последние шестьдесят лет развития ИИ, заключается в том, что то, что казалось самым сложным (диагностика заболеваний, игра в шахматы или го на самом высоком уровне), оказалось относительно простым, а то, что казалось самым простым, оказалось самым сложным из всех. Объяснение этого кажущегося противоречия можно найти в сложности оснащения машин знаниями, составляющими "здравый смысл". Без этих знаний, среди прочих ограничений, невозможно добиться глубокого понимания языка или глубокой интерпретации того, что улавливает система визуального восприятия. Знания здравого смысла - это результат нашего жизненного опыта. Примеры включают: "вода всегда течет вниз"; "чтобы тащить предмет, привязанный к веревке, нужно тянуть за веревку, а не толкать"; "стакан можно хранить в шкафу, но шкаф нельзя хранить в стакане" и так далее. Человек легко справляется с миллионами таких данных, основанных на здравом смысле, которые позволяют нам понять мир, в котором мы живем. Возможным направлением исследований, которое может дать интересные результаты о приобретении знаний здравого смысла, является упомянутая выше развивающая робототехника. Другая интересная область исследует математическое моделирование и обучение причинно-следственным связям, то есть обучение причинно-следственным, а значит асимметричным, моделям мира. Современные системы, основанные на глубоком обучении, способны к обучению симметричных математических функций, но не способны к обучению асимметричных отношений. Поэтому они не способны отличать причины от следствий, например, идею о том, что восходящее солнце вызывает крик петуха, но не наоборот (Pearl and Mackenzie, 2018; Lake et al., 2016)

Будущее: К подлинно разумному искусственному интеллекту

Наиболее сложными для реализации являются те способности, которые требуют взаимодействия с неограниченным и заранее не подготовленным окружением. Проектирование систем с такими возможностями требует интеграции разработок во многих областях ИИ. Нам особенно нужны языки представления знаний, которые кодируют информацию о многих различных типах объектов, ситуаций, действий и так далее, а также об их свойствах и отношениях между ними - особенно о причинно-следственных связях. Нам также нужны новые алгоритмы, способные использовать эти представления надежным и эффективным образом для решения проблем и ответов на вопросы практически по любой теме. Наконец, учитывая, что им придется приобретать практически неограниченный объем знаний, эти системы должны быть способны к непрерывному обучению на протяжении всего периода своего существования. Таким образом, необходимо разработать системы, сочетающие в себе восприятие, представление, рассуждение, действие и обучение. Это очень важная проблема ИИ, поскольку мы до сих пор не знаем, как интегрировать все эти компоненты интеллекта. Нам нужны когнитивные архитектуры (Forbus, 2012), которые адекватно интегрируют эти компоненты. Интегрированные системы - это фундаментальный первый шаг на пути к достижению общего ИИ.
Будущее искусственного интеллекта

Наиболее сложными для реализации являются те способности, которые требуют взаимодействия с неограниченным и заранее не подготовленным окружением. Проектирование систем с такими возможностями требует интеграции разработок во многих областях ИИ.

Среди будущих направлений деятельности мы считаем, что наиболее важными областями исследований будут гибридные системы, сочетающие преимущества систем, способных рассуждать на основе знаний и использования памяти (Graves et al., 2016), с преимуществами ИИ, основанного на анализе огромных объемов данных, то есть глубокого обучения (Bengio, 2009). Сегодня системы глубокого обучения существенно ограничены так называемым "катастрофическим забыванием". Это означает, что если они были обучены выполнять одну задачу (например, играть в Го), а затем их обучают чему-то другому (например, различать изображения собак и кошек), то они полностью забывают то, чему они научились для предыдущей задачи (в данном случае, игры в Го). Это ограничение является весомым доказательством того, что эти системы ничему не учатся, по крайней мере, в человеческом понимании обучения. Другим важным ограничением этих систем является то, что они представляют собой "черные ящики", не способные к объяснению. Поэтому было бы интересно исследовать, как наделить системы глубокого обучения способностью к объяснению, добавив модули, позволяющие объяснить, как они пришли к предложенным результатам и выводам, поскольку способность к объяснению является важной характеристикой любой интеллектуальной системы. Также необходимо разработать новые алгоритмы обучения, которые не требуют огромных объемов данных для обучения, а также более энергоэффективного оборудования для их реализации, поскольку потребление энергии может стать одним из главных препятствий для развития ИИ. Для сравнения, мозг на несколько порядков эффективнее, чем аппаратное обеспечение, необходимое в настоящее время для реализации самых сложных алгоритмов ИИ. Один из возможных путей для изучения - нейроморфные вычисления на основе мемристоров (Saxena et al., 2018).
Другие более классические методы ИИ, которые будут продолжать активно исследоваться, - это мультиагентные системы, планирование действий, рассуждения на основе опыта, искусственное зрение, мультимодальная коммуникация между человеком и машиной, гуманоидная робототехника, и особенно новые тенденции в робототехнике развития, которые могут дать ключ к наделению машин здравым смыслом, особенно способностью изучать отношения между своими действиями и эффектами, которые они производят на окружающую среду. Мы также увидим значительный прогресс в биомиметических подходах к воспроизведению поведения животных в машинах. Это не просто вопрос воспроизведения поведения животного, это также включает в себя понимание того, как на самом деле работает мозг, который производит это поведение. Это предполагает создание и программирование электронных схем, которые воспроизводят мозговую активность, ответственную за это поведение. Некоторые биологи заинтересованы в попытках создать как можно более сложный искусственный мозг, поскольку считают это средством лучшего понимания этого органа. В этом контексте инженеры ищут биологическую информацию, которая позволит сделать конструкции более эффективными. Молекулярная биология и последние достижения в области оптогенетики позволят определить, какие гены и нейроны играют ключевую роль в различных видах когнитивной деятельности.

Развивающаяся робототехника может стать ключом к наделению машин здравым смыслом, особенно способностью изучать взаимосвязи между своими действиями и эффектами, которые они производят на окружающую среду.

Что касается приложений: одними из самых важных останутся те, которые связаны с Интернетом, видеоиграми, персональными помощниками и автономными роботами (особенно автономные транспортные средства, социальные роботы, роботы для исследования планет и так далее). Важными будут также приложения, связанные с охраной окружающей среды и энергосбережением, а также приложения, предназначенные для экономики и социологии. Наконец, применение ИИ в искусстве (изобразительное искусство, музыка, танец, повествование) приведет к важным изменениям в природе творческого процесса. Сегодня компьютеры перестали быть просто помощниками в творчестве; они сами стали творческими агентами. Это привело к появлению новой и очень перспективной области ИИ, известной как вычислительная креативность, которая дает очень интересные результаты (Colton et al., 2009, 2015; López de Mántaras, 2016) в шахматах, музыке, изобразительном искусстве, повествовании и других видах творческой деятельности.
Будущее искусственного интеллекта

Несколько заключительных мыслей

Независимо от того, насколько интеллектуальными станут будущие искусственные интеллекты - даже общие - они никогда не будут такими же, как человеческий интеллект. Как мы уже говорили, умственное развитие, необходимое для любого сложного интеллекта, зависит от взаимодействия с окружающей средой, а это взаимодействие, в свою очередь, зависит от организма, особенно от перцептивной и моторной систем. Это, а также тот факт, что машины не будут следовать тем же процессам социализации и приобретения культуры, что и мы, еще больше подкрепляет вывод о том, что, какими бы сложными они ни стали, их интеллект будет отличаться от нашего. Существование интеллектов, не похожих на наши, а значит, чуждых нашим ценностям и человеческим потребностям, заставляет задуматься о возможных этических ограничениях развития ИИ. В частности, мы согласны с утверждением Вейценбаума (Weizenbaum, 1976), что ни одна машина никогда не должна принимать полностью автономные решения или давать советы, требующие, помимо прочего, мудрости, рожденной человеческим опытом, и признания человеческих ценностей.
Независимо от того, насколько интеллектуальными станут будущие искусственные интеллекты, они никогда не будут такими же, как человеческий интеллект: умственное развитие, необходимое для любого сложного интеллекта, зависит от взаимодействия с окружающей средой, а это взаимодействие, в свою очередь, зависит от организма - особенно от перцептивной и моторной систем.

Настоящая опасность ИИ - это не невероятная технологическая сингулярность, порожденная существованием гипотетических будущих искусственных сверхразумов; настоящая опасность уже здесь. Сегодня алгоритмы, управляющие поисковыми системами в Интернете или рекомендательными и персональными системами-помощниками на наших мобильных телефонах, уже обладают вполне достаточными знаниями о том, что мы делаем, о наших предпочтениях и вкусах. Они даже могут сделать вывод о том, о чем мы думаем и что чувствуем. Доступ к огромным объемам данных, которые мы генерируем добровольно, является основополагающим фактором для этого, поскольку анализ таких данных из различных источников позволяет выявить взаимосвязи и закономерности, которые невозможно было бы обнаружить без применения методов искусственного интеллекта. В результате происходит тревожная потеря конфиденциальности. Чтобы избежать этого, мы должны иметь право владеть копией всех генерируемых нами персональных данных, контролировать их использование и решать, кто и на каких условиях будет иметь к ним доступ, а не передавать их в руки крупных корпораций, не зная, что они на самом деле делают с нашими данными.

ИИ основан на сложном программировании, а это значит, что неизбежны ошибки. Но даже если бы было возможно разработать абсолютно надежное программное обеспечение, существуют этические дилеммы, о которых разработчики программного обеспечения должны помнить при его создании. Например, автономный автомобиль может решить сбить пешехода, чтобы избежать столкновения, которое может нанести вред его пассажирам. Оснащение компаний передовыми системами искусственного интеллекта, повышающими эффективность управления и производства, потребует меньшего числа сотрудников и, следовательно, приведет к росту безработицы. Эти этические дилеммы заставляют многих экспертов по ИИ указывать на необходимость регулирования его развития. В некоторых случаях его использование даже должно быть запрещено. Одним из ярких примеров является автономное оружие. Три основных принципа, регулирующих вооруженные конфликты: дискриминация (необходимость различать комбатантов и гражданских лиц или комбатанта, сдающегося в плен, и комбатанта, готовящегося к атаке), пропорциональность (избежание непропорционального применения силы) и предосторожность (минимизация числа жертв и материального ущерба) - чрезвычайно трудно оценить, и поэтому практически невозможно, чтобы системы ИИ в автономном оружии подчинялись им. Но даже если в очень отдаленной перспективе машины достигнут такой способности, было бы неприлично делегировать решение об убийстве машине. Помимо такого рода регулирования, необходимо просвещать граждан относительно рисков, связанных с интеллектуальными технологиями, и убедиться, что они обладают необходимой компетенцией для того, чтобы управлять ими, а не быть управляемыми ими. Наши будущие граждане должны быть гораздо более информированными, с большей способностью оценивать технологические риски, с большим критическим чувством и готовностью осуществлять свои права. Этот процесс обучения должен начинаться в школе и продолжаться на университетском уровне. Особенно необходимо, чтобы студенты, изучающие естественные и технические науки, прошли подготовку по этике, которая позволит им лучше понять социальные последствия технологий, которые они, скорее всего, будут разрабатывать. Только инвестируя в образование, мы сможем создать общество, которое сможет пользоваться преимуществами интеллектуальных технологий и при этом минимизировать риски. ИИ, несомненно, обладает необычайным потенциалом принести пользу обществу, если только мы будем использовать его правильно и осмотрительно. Необходимо повышать осведомленность об ограничениях ИИ, а также действовать коллективно, чтобы гарантировать, что ИИ будет использоваться для общего блага безопасным, надежным и ответственным образом.
Путь к действительно интеллектуальному ИИ будет долгим и трудным. В конце концов, этой области едва исполнилось шестьдесят лет, и, как заметил бы Карл Саган, шестьдесят лет - это лишь миг на космической шкале времени. Габриэль Гарсия Маркес выразил это более поэтично в речи 1936 года ("Дамоклов катаклизм"): "С момента появления видимой жизни на Земле должно было пройти 380 миллионов лет, чтобы бабочка научилась летать, 180 миллионов лет, чтобы создать розу, у которой не было другого обязательства, кроме как быть красивой, и четыре геологические эпохи, чтобы мы, люди, смогли петь лучше птиц и умереть от любви.
Будущее искусственного интеллекта
Будущее искусственного интеллекта
 
Комментарии (0)
Добавить комментарий
Оставьте первый комментарий
 
51