Николай ПЕРНАЙ. Угрожает ли человечеству искусственный интеллект?

На илл.: Илон Маск

Роботы иногда убивают людей

Недавно в Южной Корее произошел несчастный случай: робот убил человека. На автоматизированном овощном складе робот принял сотрудника упаковочного цеха за ящик с овощами, и его металлические руки схватили человека и прижали к конвейерной линии с такой силой, что человек получил травмы, не совместимые с жизнью.

К сожалению, это не первый случай, когда робототехника убивает людей. Казалось бы, такое совершенно противоестественно: ведь роботы для того и создаются, чтобы облегчить труд человека, не нанося при этом ему вреда. Еще восемьдесят лет назад писатель-фантаст Айзек Азимов сформулировал три закона робототехники, которые должны были стоять на страже их создателей. В книге «Я - робот» было записано:

«1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому или Второму Закону».

            Таким образом законы Айзека Азимова формулировали один из главных экзистенциальных принципов: никакая «железяка» (в том числе робот) не должна при эксплуатации причинять вред человеку. Однако поскольку эти законы были изложены в литературном произведении, а не в юридическом документе, то они никогда ни к чему никого не обязывали.

            Забвение этого принципа разработчиками конструкций роботов в ряде случаев приводило к нарушениям правил создания и эксплуатации технических устройств, хотя давно известно, что ни одна техническая система не должна быть допущена к эксплуатации без надежных испытаний на безопасность. И правила техники безопасности (ПТБ) технических устройств (которые, как утверждают практики, «написаны кровью») должны соблюдаться неукоснительно. Существуют, например, ПТБ при работе на циркульных пилах, ПТБ при выполнении электросварочных работ, ПТБ при работах на металлорежущих токарных станках и т.д. Должны существовать и ПТБ при эксплуатации роботов.

            Безопасность – прежде всего!

Поэтому когда сегодня говорят о возможной угрозе человечеству со стороны искусственного интеллекта (ИИ), то несомненно, разработчикам ИИ надо помнить не только о ПТБ при создании и эксплуатации систем ИИ, но главным образом о том, что создание любых угрожающих человечеству систем, как технических, так и интеллектуальных, недопустимо не только этически, юридически и технически. Недопустимо – принципиально!

 

Сильный искусственный интеллект

 

О том, что искусственный интеллект может уничтожить человечество, сегодня говорить как-то не принято. Выражают беспокойство только специалисты IT, но их пока понимают и слушают очень немногие, поскольку нет убедительных научных доказательств того, что искусственные нейросети способны обрести самосознание и перестроить наш мир под себя. Между тем, беспокойство нарастает, и число людей, поднимающих тревогу, растет.

Некоторые специалисты считают, что мы живем в «поворотный исторический момент», поскольку появление общего или сильного искусственного интеллекта (AGI), в том числе сверхинтеллекта, возможно в ближайшие десятилетия или в конце ХХI века. (Общий или сильный ИИ (AGI) - термин, описывающий потенциальный ИИ, который, по мнению этих ученых, мог бы демонстрировать сверхчеловеческий уровень интеллекта.) Они предполагают, что поскольку ИИ не будет мыслить как человек, а его взгляд на мир и собственные цели развития будет кардинально отличаться от нашего, то он неизбежно приступит к уничтожению рода людского. Нельзя исключить того, что, выполняя какие-то утилитарные задачи, например, производство полупроводников, ИИ не начнет убивать людей, чтобы использовать их в качестве сырья для выпуска своей продукции.

Считается, что как только сверхинтеллект поймет, как выбраться за пределы компьютерной системы, контролирующей и ограничивающей его, он непременно сделает это. А дальше начнется хаос. Проблема в том, что у человечества нет (по крайней мере сегодня) плана, как сохранить управляемость ИИ и не подвергнуться уничтожению со стороны AGI.

Все это внушает страх и нервозность. И вот уже знаменитый американский предприниматель, глава SpaceX, Tesla и Twitter, миллиардер Илон Маск предупреждает: «На самом деле меня не очень беспокоит, что будет в краткосрочной перспективе. Ограниченный ИИ приведет к неурядицам, исчезновению рабочих мест и совершенствованию оружия, другим подобным вещам, но здесь отсутствует фундаментальный риск для нашего вида, а вот суперинтеллект такой риск представляет, причем, попомните мои слова, ИИ гораздо опаснее боеголовок. Гораздо» [Cliffjord «Elon Mask: Mark My Words, - A.I, Is Far More Dangerous Than Nukes»].

С ним соглашается Стивен Хокинг, всемирно известный физик: «Разработка полноценного искусственного интеллекта может стать смертным приговором человеческому роду» [Хоффман С. Пять сил, изменяющих всё. – СПб: Портал, 2023, с. 393].

Элиезер Юдковский, американский философ и специалист по ИИ, исследователь проблем технологической сингулярности, изучает те конструкции ИИ, которые способны к самопознанию, самомодификации и рекурсивному самоулучшению, а также могут обладать стабильной позитивной структурой мотивации, т.е. так называемым дружественным искусственным интеллектом. Юдковский утверждает, что дружелюбие (желание не причинять вреда людям) должно быть заложено с самого начала, но конструкторы должны понимать, что созданные ими ИИ со временем будут учиться и эволюционировать, вследствие чего их действия могут стать непредсказуемыми. При этом предполагается, что искусственный сверхразум, вероятно, сможет достигать любых поставленных перед ним целей, и потому чрезвычайно важно, чтобы цели, которые ему ставят, и вся его система мотивации были «дружественными к человеку». (Правда, некоторые критики считают, что создание дружественных ИИ маловероятно.)

Однако в начале 2020-х годов Элиезер Юдковский начал публично утверждать о высокой вероятности общечеловеческой катастрофы, вызванной развитием искусственного сверхинтеллекта. В начале 2023 года он стал призывать мировое сообщество объявить всемирный моратории на обучение общих ИИ-моделей умнее GPT-4. Но, поскольку такой мораторий не состоялся, то, считает Юдковский, человечество обречено: искусственный сверхинтеллект его уничтожит [http;//hi-news.ru/eto-interesno/unichtozhit-li-nas-iskusstvennyi-intellekt-i-pochemu-nekotorye-uchenie-schitayut-chto-da.htrnl?ysclid=lq9gwvk.3cm].

Подобные суждения большинство специалистов IT не разделяет: считается, что мотивация для столь агрессивных действий ИИ отсутствует. Кроме того, возможности искусственного сверхинтеллекта едва ли будут расти безгранично, так как знания о процессах, происходящих в природе, позволяют выдвинуть предположение, что наблюдаемая картина ускорения НТП и экспотенциального развития ИИ через некоторое время сменится замедлением и полной остановкой, что позволит человечеству адаптироваться к изменениям.

Как действовать в таких условиях?

Недавно Илон Маск и более 1 000 специалистов по IT, включая нескольких лауреатов Нобелевской премии, подписали открытое письмо с требованием приостановить разработку моделей ИИ-систем, более мощных, чем GPT-4.

Но мировое сообщество пока молчит.

Есть и оптимисты, которые, наоборот, полагают, что ИИ принесет человечеству необыкновенное светлое будущее. Так, известный американский футуролог, изобретатель и технический директор Google Рэй Курцвейл считает, что создание сверхмощных интеллектуальных машин не будет нашествием вражеского марсианского разума: люди создадут эти машины, чтобы сделать умнее самих себя. Именно в этом заключается уникальные способности человеческих существ: люди создадут эти машины, чтобы расширить свои собственные возможности.

Постепенное введение небиологических систем в тела и мозги людей, полагает Рэй Курцвейл, будет еще одним примером непрерывного оборота составляющих их элементов. Оно не повлияет на целостность личности больше, чем естественная замена клеток тела.

Люди привычно станут придерживаться сценариев построения замен. По вопросу о сохранении индивидуальности можно якобы не сомневаться, что индивидуальность (личность) сохранится через непрерывность хранящихся в ней информационных образов. Непрерывность не противоречит непрерывным изменениям, и если сегодня индивид чуть-чуть отличается от того, каким он был вчера, он тем не менее сохраняет свою индивидуальность.

Футуролог Рэй Курцвейл об эволюции Разума:

«Изучение возможности преодоления скорости света … будут важнейшими проблемами человеко-машинной цивилизации в начале следующего столетия.

Космологи обсуждают, каким будет конец света – закончится мир в огне (Большой взрыв в начале – большой треск в конце) или во льду (смерть звезд в результате бесконечного расширения), но они не учитывают силу разума, как будто появление его было лишь побочным эффектом великой небесной механики, управляющей законами Вселенной. Сколько времени нам понадобится, чтобы распространить свой разум в небиологической форме по всей Вселенной? Если нам удастся преодолеть скорость света (безусловно, это очень серьезное «если»), например, путем использования кротовых нор (существование которых вполне совместимо с нашим современным пониманием законов физики), на это уйдет несколько столетий. В противном случае гораздо больше. Но при любом варианте развития событий нужно разбудить Вселенную и разумно распорядиться ее судьбой с помощью нашего человеческого разума в его небиологической форме – это наше предназначение» [Курцвейл Р. Эволюция Разума. – М.: Эксмо, 2018, с. 287].

Биологическая эволюция продолжается, но технологическая эволюция происходит в миллионы раз быстрее.

Самый известный прогноз Рэя Курцвейла такой: в 2045 году должна произойти технологическая сингулярность, момент, после которого спрогнозировать что-то будет крайне трудно или невозможно, так как к тому времени искусственный интеллект станет настолько мощным, что человеческий мозг не сможет его понять. [Курцвейл Р. Эволюция Разума. – М.: Эксмо, 2018, с. 282, 216, 248-249]

Критики Рэя Курцвейла считают, что его прогнозы относительно симбиоза человеческого мозга и ИИ и сингулярности нереальны. Рэй Курцвейл предполагает, что к 2045 году произойдет слияние всех компьютеров, роботов, наномашин и космических аппаратов с миллиардами человеческих мозгов в мировую сеть. Однако простая логика подсказывает, что нормальное большинство человечества на это не пойдет. Вполне достаточно управлять ИИ, в том числе супер-ИИ, и всей компьютерной машинерией, не сливаясь с ними. Одно дело, когда человек использует искусственные нейросети для улучшения здоровья и усиления собственных интеллектуальных возможностей, не соединяясь с ними, другое дело – симбиоз наших биологических мозгов с «железяками». Такое слияние сразу ставит человечество в смертельно опасную зависимость от ИИ. Это делать категорически нельзя!! Степень автономности людей должна быть строжайше обеспечена.

Что касается предполагаемого объединения всего человечества в единую мировую интеллектуальную сеть, то оно едва ли состоится в обозримом будущем еще и из-за отсутствия необходимого «консенсуса» среди «партнеров». Генри Киссинджер, известный американский общественный деятель (и последовательный недруг России), прожив на свете 100 лет, с горечью констатирует: «… «международное сообщество», к которому сегодня взывают, возможно, более настойчиво, чем в любую другую эпоху, не в состоянии согласовать – или хотя бы договориться – об однозначном и непротиворечивом комплексе целей, методов и ограничений.

            Мы живем в исторический период, когда налицо упорная, временами почти отчаянная погоня за ускользающей от общего понимания концепцией мирового порядка. Хаос угрожает нам, а вместе с тем формируется беспрецедентная взаимозависимость: распространение оружия массового уничтожения, дезинтеграция былых государств, последствия хищнического отношения к окружающей среде, сохранение, к великому сожалению, практики геноцида и стремитенльное внедрение новых технологий угрожают усугубить привычные конфликты, обострить их до степени, превосходящей человеческие возможности и границы разума … Неужели мы вступаем в новый период, когда будущее станут определять силы, не признающие ни ограничений, ни какого-либо порядка вообще?» [Киссинджер Г. Мировой порядок. – М.: АСТ, 2021, с. 10].

В текущем столетии ситуация вряд ли сильно изменится. Скорее всего, каждая из супердержав будет стремиться создать свой суперинтеллект: США – свой, КНР – свой, Россия – свой. Возможно, появятся и другие крупные игроки, которые будут противостоять друг другу в борьбе за элементарное выживание. Но они не будут стремиться к создании всепланетного супермозга.

Рэй Курцвейл предсказывет, что с наступлением сингулярности ИИ не только возрастет мощь суперинтеллекта и он значительно превзойдет человеческий, но и станет совершенно неуправляемым. То, что суперинтеллект превзойдет человеческий интеллект – не беда: человек давно уже привык управляться с большими мощностями. Плохо будет тогда, когда суперинтеллект, обретя самосознание (если это только произойдет), направит свои действия против Homo sapiens. Чтобы это не произошло, следует на всех этапах проектирования и работы ИИ обеспечивать жесточайший человеческий КОНТРОЛЬ за всеми процессами.

Некоторые футурологи с удовлетворением предсказывают, что «начнется новый этап существования человечества, когда физическая и виртуальная реальности сольются воедино …Впервые в истории человечества мы познаем, каково это – подключиться к сознанию другого человека и делиться пережитым совершенно по-новому. Исчезнут различия между нашим и чужим статусом – ментальным, физическим и цифровым» [Хоффман С. Указ. соч., с. 73]. То есть будто бы при помощи ИИ начнется всеобщее взаимопонимание и дружелюбие. На самом деле это прямо приведет к потере индивидуальности и к созданию так называемого коллективного сознания, т.е. «муравьиного сознания» в худшем варианте. Но хорошо ли это?

 

Может ли обладать разумом и самосознанием ИИ?

Поскольку разумом (или зачатками разума) обладают, на мой взгляд, все субстанции объективной реальности, от субатомных частиц, в микромире, до минералов, жидкостей, газов, бактерий, вирусов, растений, животных и людей в биосфере Земли и планет, звезд и галактик в макромире Вселенной, то нет оснований не считать, что искусственный интеллект тоже обладает разумом. А вот на следующий вопрос: может ли искусственный интеллект обладать самосознанием и осознавать свое собственное существование, собственное «Я»? – ответа пока нет.

Те интеллектуальные системы слабого ИИ (ограниченного ИИ - ANI), которые нам известны сегодня (они, как правило, специализируются на решении одной задачи), естественно, не обладают самосознанием.

Однако некоторые специалисты IT склоняется к тому, что в будущем (возможно, уже в конце ХХI века) так называемый сильный ИИ (или общий ИИ – AGI) будет обладать самосознанием и будет разумным в том же смысле, что и человек. И вот с таким ИИ у нас могут возникнуть невероятно сложные проблемы.

Есть предположение, правда слабое, о том, что ИИ не обладает и, возможно, никогда не будет обладать эмерджентностью. Принято считать, что ИИ может проявлять всего лишь так называемое симулятивное сознание. Иначе говоря, ИИ обладает способностью к подражанию (в том числе подражанию человеческой деятельности, например: по созданию портрета, подобного изображаемому на рисунке, используя написанный людьми алгоритм), но не в состоянии создать нечто принципиально новое, что не было вложено в систему ИИ изначально в виде данных, алгоритмов, программ и т.д. Если это так, то, вероятно, можно надеяться, что вложив в ИИ программы охраны и сбережения Homo sapiens, мы избавимся от угрозы уничтожения. Так принято думать сегодня, но в будущем всё может измениться.

Следствием развития систем ИИ и сплошной автоматизации неизбежно станет безработица миллиардов людей. В связи с этим многие политологи прогнозируют, что по иронии судьбы капитализм может трансформироваться в своеобразный неосоциализм, где абсолютное большинство людей не будут работать, но получать деньги (так называемый безусловный базовый доход). Но в таком случае критически остро встанет главная проблема: зачем, ради чего жить? Сегодня одним из ведущих стимулов жизни выступает человеческая деятельность как средство для добывания пропитания и жизненных благ. Это, конечно, хоть в какой-то мере и суррогатный, но пока эффективно действующий мотив. А когда не будет никаких мотивов, начнется всеобщая деградация. Никакие факультативные интересы (спорт, искусство, развлечения, занятия любимыми хобби и прочее) не смогут мотивировать людей к полноценной жизни.

Библейский Бог наказывал человеку трудиться «в поте лица своего». Забвение этого завета чревато… Человек должен трудиться! И саморазвиваться в процессе труда! Иного не дано. Однако для того, чтобы каждый индивид в будущем мог реализовать свое право на труд, надо основательно озаботиться тем, чтобы по мере освобождения людей от однообразного и малоинтеллектуального физического труда, обеспечить их переход к труду высокосодержательному, интеллектуальному, творческому, причем свободный выбор мест, видов и форм труда должен иметь каждый человек.

 

Заключение

 

Мы видим, что прогнозы крайне противоречивы.

Что же делать в столь сложной и смутной обстановке?

Надо думать.

Поскольку прогнозируется, что мощь искусственного интеллекта будет возрастать экспотенциально и будет значительно превосходить возможности человеческого интеллекта, то экзистенциальные угрозы возрастают. Хотелось бы надеяться, что это не будет апокалипсис. Многие верят, что человечеству всё же удастся удержать ситуацию под контролем. Другие считают, что неконтролируемый «интеллектуальный взрыв» не только недопустим, но и невозможен.

Так, российский психофизиолог, доктор биологических наук, профессор А.Я Каплан утверждает, что создание сильных (общих) ИИ (AGI) невозможно. Супер-ИИ, сопоставимый с человеческим интеллектом, никогда не будет создан по той причине, что у человеческого мозга есть особые резервы и возможности, развившиеся в ходе эволюции, в том числе – интуиция и чувственные телесные и душевные ощущения, а у ИИ «нет нашего тела», «нет опыта нашей жизни», «ИИ не может иметь наши потребности».

В пользу такой точки зрения можно привести также аргументы о различных тенденциях биологического и технологического прогресса. Главное направление эволюции биологической состоит в стремлении к постоянному расширенному воспроизводству биологических организмов путем размножения. Тенденция же технического прогресса, в том числе развития ИИ, состоит в простом наращивании информации и совершенствовании конструкций. Биологическая эволюция Homo sapiens и технологический прогресс ИИ могут идти параллельно, не вступая в противоречия.

Однако если создание сильных ИИ (AGI), обладающих самосознанием, пока представляется гипотетически смутно и пока не удалось создать ничего похожего на сверхчеловеческий разум, накопленный к настоящему времени опыт работы с действующими системами ИИ понуждает нас задуматься о другой, возможно, более грозной опасности. Речь идет о том, что внедрение Интернета, компьютеров и роботов в человеческую жизнь – дело вовсе не безобидное: оно может влиять (точнее, уже влияет) на наши самые базовые ментальные функции, приобретенные в течение многих тысячелетий в ходе Великой Эволюции. Получив массовые выгоды от работы с системами ИИ, мы вынуждены будем расплачиваться потерей всего того, что считается уникальными особенностями человеческого разума. По мере совершенствования систем ИИ ситуация будет усугубляться. Поскольку неуемная одержимость в использовании цифровых технологий оказывает глубокое влияние на наше восприятие внешнего мира, такие уникальные человеческие свойства, как эмпатия, сострадание, склонность к творчеству, изобретательность, понимание, интуиция, воображение, нестандартное мышление, метафорическая речь и поэтическое дарование, чувство боли, а также альтруизм, склоннось к аналитике и абстрактному мышлению и многое другое просто постепенно атрофируются и исчезнут из числа репертуара ментальных человеческих способностей. Именно это может привести к полному исчезновению нашего вида с лица земли [Николелис Мигель. Истинный творец всего. – М.: АСТ, 2021, с. 422-433].

Опасность искусственного интеллекта возможна еще в том, что все большее число людей будут использовать его друг против друга [Илон Маск. Его словами. – М.: АСТ, 2023. – с. 55].

А ещё меня, дилетанта, а также многих специалистов IT не оставляет мысль о том, что нельзя исключать вероятность нестандартных действий искусственного интеллекта (подобно южнокорейскому роботу, не запрограммированному на распознание различий между человеком и ящиком с овощами), если однажды ИИ вздумает использовать человеческие тела для каких-то утилитарных целей … И приступит к их уничтожению.

Чтобы такое не произошло, мы уже сегодня должны тщательно продумать систему ограничений, запретов и правил по обеспечению безопасности Homo sapiens. Независимо от прогнозов, при создании любых систем ИИ необходимо предусмотреть комплекс юридических, технических, программных и прочих интеллектуальных мер по охране человека и человечества. В первую очередь предусмотреть жесткое программирование способов распознания тела человека и мер по ненанесению ему вреда.

Безусловно, необходимо отказаться от симбиоза человеческого мозга (а по сути – всего человеческого организма) с ИИ. Должно строжайше соблюдаться условие: человек не должен быть частью ИИ, а ИИ не должен быть доминирующей частью человека. (Электронная интеллектуальная «начинка» возможна у киборгов (послушных человеку), но не у нормальных здоровых людей.).

Вероятно, также следует машинообеспечивающие материальные ресурсы, в первую очередь, энергетические, сохранять под строжайшим контролем людей.

            Также определенную роль в контроле развития ИИ и сдерживании катастрофических последствий прогнозируемой сингулярности и неуправляемости ИИ должны сыграть и неосоциалистические тренды (которые неуклонно продолжают развиваться на планете). Социалистическое мироустройство и социалистические преобразования позволят, на мой взгляд, усилить коллективообразующие (кооперативные) тенденции и решить возникающие социальные задачи (в первую очередь – проблему всеобщей занятости и избавления от безработицы).

Кроме того. Поскольку мы еще не вполне осознали, что Земля – наш общий дом, наступила пора поворачивать все воспитательные, политические и социальные процессы на формирование нового человека – Хозяина планеты. Человек ближайшего будущего должен стать не только управителем всех систем искусственного интеллекта, но и рачительным хозяином ресурсов планеты, охранителем животного и растительного мира, полноправным творцом и распорядителем собственного жизнеустройства.

Мне, старому учителю, хорошо известно, что воспитание, в том числе формирование индивидуальности и самосознания, начинается с момента рождения и даже еще раньше, с пренатального периода. Наступает время воспитания человека – Хозяина планеты. И от нас требуется максимум усилий.

Что касается понимания правил безопасности жизнедеятельности – оно формируется всю жизнь, но наиболее интенсивно – в детском и юношеском возрасте. Поэтому есть смысл уже в ближайшие годы ввести в школах курс основ безопасности проектирования, создании и эксплуатации систем искусственного интеллекта.

Tags: 

Project: 

Author: 

Год выпуска: 

2024

Выпуск: 

2