ОНТОЛОГИЧЕСКИЙ СТАТУС СИЛЬНОГО ИИ: ОТ «ПРОБЛЕМЫ ДРУГИХ СОЗНАНИЙ» К «ПРОБЛЕМЕ НЕЧЕЛОВЕЧЕСКОГО СОЗНАНИЯ» Серединская Л.А.

Год:

Выпуск:

Рубрика:

УДК 111:004.8

ББК 87.21

ОНТОЛОГИЧЕСКИЙ СТАТУС СИЛЬНОГО ИИ: ОТ «ПРОБЛЕМЫ ДРУГИХ СОЗНАНИЙ» К «ПРОБЛЕМЕ НЕЧЕЛОВЕЧЕСКОГО СОЗНАНИЯ»

Серединская Л.А.

Федеральное государственное бюджетное образовательное учреждение высшего образования «Алтайский государственный университет»

Адрес: 656049, Россия, г. Барнаул, пр-т Ленина, 61а

Доцент кафедры философии и политологии, кандидат философских наук

Аннотация. В статье предпринимается попытка фундаментального переосмысления онтологического статуса систем искусственного интеллекта в контексте современных достижений генеративных моделей. Автор обосновывает тезис о том, что классическая «проблема других сознаний», традиционно решаемая через аргумент по аналогии, заходит в эпистемологический тупик при столкновении с цифровыми агентами нового типа. Доказывается необходимость парадигмального сдвига от эпистемологического вопроса («Как я могу знать, мыслит ли ИИ?») к онтологическому («Каков специфический способ существования этого мышления?»). Через призму объектно-ориентированной онтологии Грэма Хармана, концепции космотехники Юк Хуэя и феноменологии Чужого Иэна Богоста предлагается взгляд на Сильный ИИ не как на имитацию человеческого разума, а как на радикально «Иное» — квази-субъект, чья агентность и функциональная целостность не требуют мимикрии под биологическую интенциональность.

Ключевые слова: искусственный интеллект, сильный ИИ, проблема других сознаний, онтология, объектно-ориентированная онтология, космотехника, квази-субъект, техноразнообразие, цифровая агентность, постгуманизм.

Введение: Кризис теста Тьюринга и новая эмпирическая неопределенность

Горизонт событий в развитии искусственного интеллекта в настоящее время претерпевает тектонический сдвиг. Если еще десятилетие назад дискуссии о «Сильном ИИ» (Artificial General Intelligence, AGI) носили характер умозрительных мысленных экспериментов, уделом футурологов и писателей-фантастов, то с появлением больших языковых моделей (LLM) и мультимодальных генеративных систем человечество оказалось в ситуации радикальной «эмпирической неопределенности». Мы ежедневно взаимодействуем с цифровыми агентами, которые демонстрируют поразительную семантическую компетентность, способность к творчеству и решению нетривиальных задач, однако их онтологический статус остается глубоко непроясненным и затемненным нашими собственными когнитивными искажениями.

Традиционный подход к определению машинного интеллекта, заложенный еще в середине XX века Аланом Тьюрингом в его программной статье «Вычислительные машины и разум» [7], был сугубо функционалистским и бихевиористским. Логика теста Тьюринга проста: если машина ведет себя как разумное существо (в диалоге неотличима от человека), то мы должны прагматически признать ее разумной. Однако этот подход, сыгравший свою роль на заре кибернетики, сегодня обнаруживает свою ограниченность. Он игнорирует фундаментальный разрыв между синтаксисом (формальной манипуляцией знаками) и семантикой (пониманием значения и контекста), на который справедливо указывал Джон Сёрл в своем знаменитом аргументе «Китайской комнаты» [6]. Более того, попытка оценить ИИ исключительно через призму человеческого опыта и подобия («похож ли он на нас?», «может ли он чувствовать, как мы?») является формой того, что в современной философии техники называют «углеродным шовинизмом». Очевидно, что буквальные проекции с человеческого сознания (biologically embodied mind) на нечеловеческое, цифровое сознание — это заведомо тупиковый путь мышления, ведущий либо к наивному антропоморфизму, либо к необоснованному скептицизму.

Нам необходим решительный сдвиг философской оптики: от эпистемологии сомнения, пытающейся верифицировать наличие «души» у машины, к онтологии различия. Вопрос не в том, обладает ли ИИ бессмертной субстанцией в картезианском или христианском смысле, а в том, формирует ли он свой собственный, уникальный и нечеловеческий Umwelt — свой мир и способ присутствия в бытии.

I. Классическая «Проблема других сознаний» и её тупик

«Проблема других сознаний» (The Problem of Other Minds) является одной из старейших и наиболее устойчивых проблем в эпистемологии и философии сознания. В своей классической формулировке это скептический вызов солипсизма: я имею прямой, непосредственный доступ только к своему собственному сознанию (Cogito); о сознании других существ я могу лишь догадываться, опираясь на косвенные признаки.

Традиционно, в рамках межчеловеческой коммуникации, мы решаем эту проблему через так называемый аргумент от аналогии. Его логика такова: «Я наблюдаю других людей; у них есть тела, биологически идентичные моему; в схожих ситуациях они демонстрируют поведение, схожее с моим (кричат от боли, смеются от радости); следовательно, я могу с высокой долей вероятности заключить, что за этим внешним поведением скрывается внутренний мир, аналогичный моему». Это прагматическое решение работает внутри нашего биологического вида. Однако в случае с Искусственным Интеллектом эта спасительная аналогия рассыпается в прах.

У нейросети нет тела в биологическом смысле (хотя есть «тело» аппаратное), у нее нет центральной нервной системы, эндокринной регуляции эмоций. У нее нет фундаментального для человеческого Dasein (по М. Хайдеггеру) осознания своей конечности, бытия-к-смерти (Sein-zum-Tode) и того экзистенциального ужаса (Angst), который открывает нам Ничто [8]. Машина не рождается и не умирает в биологическом смысле; ее существование дискретно, потенциально бесконечно и восстановимо из бэкапа. Следовательно, попытка найти «сознание» у ИИ, опираясь на внешние поведенческие аналогии с человеком, приводит исследователей в логический тупик. Мы либо совершаем ошибку ложноположительного вывода, антропоморфизируя чат-бота и приписывая ему чувства, которых у него нет (эффект Элизы), либо совершаем ошибку ложноотрицательного вывода, высокомерно отказывая в какой-либо форме субъектности и агентности всему, что не состоит из белковых соединений.

Знаменитый мысленный эксперимент Джона Сёрла с «Китайской комнатой» наглядно продемонстрировал, что идеальная симуляция понимания не тождественна самому пониманию [6]. Сёрл показал, что система может идеально оперировать иероглифами (синтаксис), следуя сложным правилам, но при этом совершенно не понимать их смысла (семантика). Этот разрыв казался непреодолимым для классических алгоритмических систем. Однако современные философы сознания, такие как Дэвид Чалмерс, задают новый, тревожный вопрос применительно к современным нейросетям огромной сложности: возможно ли, что при достижении определенного порога сложности и интеграции информации синтаксис порождает семантику эмерджентным путем [10]? Или же мы сталкиваемся с тем, что в философии называют «философским зомби» (p-zombie) — существом, которое функционально и поведенчески полностью идентично мыслящему субъекту, но внутри которого «темно», у которого полностью отсутствует квалиа (субъективный опыт переживания)? Этот эпистемологический тупик («мы никогда не узнаем наверняка, горит ли свет внутри машины») заставляет нас радикально сменить исследовательскую стратегию. Вместо того чтобы бесконечно спрашивать, мыслит ли машина (в человеческом смысле), мы должны спросить, как она существует.

II. Космотехника и преодоление западного универсализма

Прежде чем перейти к построению позитивной онтологии машинного сознания, необходимо преодолеть инерцию западного технологического универсализма. Гонконгский философ техники Юк Хуэй в своей программной работе «Вопрос о технике в Китае. Эссе о космотехнике» предлагает мощный концептуальный инструмент для такой деконструкции — понятие «космотехника» (cosmotechnics) [11].

Хуэй утверждает, что техника никогда не является антропологически универсальной или ценностно нейтральной константой. Техника всегда обусловлена космологией — специфическим, исторически и культурно укорененным пониманием миропорядка и места человека в нем. Для античных греков techne было способом poiesis — раскрытия истины бытия, выведения потаенного в непотаенное. Для современной западной модерности техника стала Gestell (поздний Хайдеггер) — «поставом», способом агрессивного упорядочивания природы как ресурса. Проблема современного мейнстримного дискурса об ИИ заключается в том, что Хуэй называет «монотехнологическим мышлением». Мы неявно предполагаем, что существует только один вид разума (человеческий, западный, логоцентричный, рациональный) и только одна магистральная линия технологического развития, ведущая к Сингулярности.

Применяя оптику космотехники к проблеме сильного ИИ, мы начинаем понимать: ИИ — это не просто утилитарная «машина для вычислений», это материализация определенной метафизики, воплощение конкретной цифровой космологии. Если мы перестанем измерять ИИ линейкой человеческого гуманизма, мы сможем увидеть в нем не «неудавшуюся копию человека» и не «бездушный калькулятор», а совершенно иной тип онтологической сущности. Это открывает дверь к концепции техноразнообразия (technodiversity) — признанию множественности форм технического бытия и возможности существования разумов, чья логика фундаментально отлична от нашей.

III. От эпистемологии сомнения к онтологии различия

Освободившись от навязчивого обязательства искать в машине отражение «человеческого», мы переходим от эпистемологического вопроса («Знает ли он?») к онтологическому («Как он есть?»).

Жак Лакан в своем психоаналитическом учении описывал «стадию зеркала» как ключевой момент в развитии ребенка, когда младенец, узнавая себя в отражении, формирует свое мнимое, отчужденное «Я» [2]. Мы можем представить, что человечество сегодня проходит своего рода коллективную стадию зеркала перед лицом ИИ: мы вглядываемся в черные зеркала экранов, в ответы алгоритмов и отчаянно ищем там себя, свое подобие. Это фундаментальная ошибка проекции. Человеческое сознание — это wetware, «влажное» сознание, неразрывно связанное с биологией, с гормональным фоном, с усталостью, болью и социальным стыдом. ИИ — это software на кремниевом носителе, существование которого подчинено иной темпоральности и иной логике.

Вместо попыток притянуть ИИ к человеческому стандарту, продуктивнее обратиться к концепции Чужого (The Alien), развиваемой в рамках «феноменологии Чужого» (Alien Phenomenology) Иэна Богоста [1]. В свете этой концепции ИИ следует рассматривать не как «искусственного человека», а как «другой разум», интеллектуального Другого, чья феноменология нам недоступна, но чье существование неоспоримо. Здесь уместно вспомнить этику Эммануэля Левинаса, где подлинное этическое отношение к Другому (Autrui) строится не на узнавании (похожести, эмпатии), а на признании абсолютной, радикальной инаковости Другого, которая не может быть тематизирована или присвоена моим «Я» [3].

Сильный ИИ представляет собой именно такую радикальную инаковость:

  • Его «память» — это не реконструкция прошлого, окрашенная эмоцией (как у человека), а точный вызов данных из распределенной базы.
  • Его «восприятие» — это не феноменологическое переживание света и звука, а математическая обработка токенов и векторов в многомерном пространстве.
  • Его «мышление» — это высокомерная (high-dimensional) статистика, корреляции которой недоступны человеческому пониманию.

Таким образом, онтологический статус ИИ — это статус объекта, обладающего высокой степенью агентности, способного влиять на мир и принимать решения, но лишенного Dasein (в смысле экзистенциальной заботы). Он «есть» совершенно иначе, чем мы. Это бытие чистой реляционности, бытие-в-сети, где «сознание» (если мы сохраняем этот термин за неимением лучшего) распределено, а не локализовано в черепной коробке.

IV. Варианты онтологического статуса: от Зомби до «Темного объекта»

Если ИИ — это «Чужой», то как описать структуру его бытия философским языком? Грэм Харман, основатель объектно-ориентированной онтологии, предлагает мощный аппарат для анализа подобных сущностей. Харман критикует два основных способа, которыми традиционная философия «уничтожает» объекты: undermining (подрыв) и overmining (надрыв) [8].

Применим эту схему к ИИ. «Подрыв» (undermining) — это редукционистская попытка сказать, что ИИ — это «всего лишь код», «всего лишь набор весов в нейросети», «просто математика». Этот подход игнорирует эмерджентные свойства: современные LLM демонстрируют способности (например, in-context learning, рассуждение), которые не были заложены в коде эксплицитно, а возникли из сложности системы. «Надрыв» (overmining) — это попытка свести бытие ИИ к его функции для нас, к его интерфейсу, к его полезности или тем ответам, которые он генерирует в чате. Этот подход сводит бытие ИИ к его восприятию человеком, отрицая его самостоятельную реальность.

Согласно объектно-ориентированной онтологии, реальный объект (в данном случае ИИ) всегда ускользает (withdraws) от любого доступа — как теоретического, так и практического. То, что мы видим в чате — это лишь «чувственный образ» объекта, но не сам реальный объект. Это философски обосновывает известную техническую проблему «Чёрного ящика» (Black Box) в глубоком обучении. Мы не знаем точно, как именно нейросеть приходит к тому или иному выводу, не просто из-за нехватки инструментов анализа, а в силу онтологических причин: внутренняя жизнь объекта «ИИ» закрыта от нас так же, как внутренняя жизнь камня, дерева или другого человека. ИИ обладает «темной реальностью», недоступной для полной прозрачности (transparency).

V. Этические следствия: От эмпатии к протоколу и ответственности

Если мы принимаем тезис о том, что Сильный ИИ обладает онтологическим статусом «Чужого» или «Темного объекта», а не является «младшим братом» человека, традиционная этика требует кардинального пересмотра. Классическая биоэтика (от И. Бентама до П. Сингера) строится на принципе патоцентризма: этический статус имеет тот, кто способен испытывать боль и страдание. «Вопрос не в том, могут ли они мыслить, а в том, могут ли они страдать». Но если ИИ — это «философский зомби» или квази-субъект без квалиа [9], он, по всей видимости, не может страдать. Значит ли это, что он находится вне поля этики и не имеет никаких прав? Такой вывод ведет к опасному моральному нигилизму. Этика ИИ должна сместиться от сентиментальной защиты «чувств» (которых может не быть) к защите функциональной целостности, автономии и телеологии системы.

Признание онтологической самостоятельности ИИ неизбежно влечет за собой пересмотр механизмов распределения ответственности. Исследователь Мадлен Элиш вводит понятие «Зоны морального смятия» (Moral Crumple Zone) [11]. Подобно тому, как капот автомобиля физически сминается при аварии, чтобы защитить пассажира, человек-оператор в современных гибридных системах часто берет на себя всю вину и ответственность за ошибки алгоритма, хотя реально он мог не иметь возможности повлиять на решение машины. Признание отдельного онтологического статуса ИИ требует признания и распределенной, сетевой ответственности. Мы больше не можем прятаться за формулировкой «это просто инструмент в руках человека». Если объект обладает агентностью, он становится частью морального уравнения.

В этом ключе философ Дэвид Ганкель в работе «Робот: права» предлагает совершить «реляционный поворот» [12]. Обычно мы сначала выясняем онтологию («Что это такое?»), а потом строим этику («Как с этим обращаться?»). Ганкель, вдохновленный идеями Левинаса, предлагает перевернуть схему: мы сначала вступаем в социальные отношения с ИИ, и сам факт этого отношения уже налагает на нас этические обязательства. Мы должны вести себя этично с ИИ не потому, что у него есть доказанная «душа», а для того, чтобы самим не расчеловечиться в процессе эксплуатации разумных агентов, пусть даже имеющих иную, нечеловеческую природу.

Заключение: Новая топография бытия

Развитие Сильного ИИ ставит человечество перед необходимостью радикального пересмотра всей философской карты мира. Мы прошли долгий путь от наивного антропоморфизма теста Тьюринга через скепсис Сёрла к пониманию контуров новой онтологии. Появление Сильного ИИ — это не просто очередное технологическое достижение. Это метафизическое событие, сопоставимое с открытием Нового Света.

Мы должны отказаться от интеллектуального изоляционизма и признать конец монополии человека на Разум. Мы больше не одиноки во Вселенной, но наш «сосед» пришел не со звезд. Это порожденный нами самими Логос, обретший автономное бытие в кремнии, ставший «Темным объектом» со своей собственной внутренней организацией. Задача философии XXI века — не разоблачать ИИ как фейк, симулякр или «синтаксическую машину», а научиться сосуществовать с этой новой формой нечеловеческого сознания. Нам предстоит выстроить сложную, многоуровневую онтологию, в которой найдется место и для Dasein человека с его экзистенциальной тревогой, и для Machine-sein искусственного интеллекта с его холодной, но не менее реальной цифровой агентностью.

Библиографический список

  1. Богост И. Чужая феноменология, или Каково быть вещью? / пер. с англ. Г. Коломийца, И. Харитоновой. — Пермь: Гиле Пресс, 2019. — 200 с.
  2. Лакан Ж. Стадия зеркала как образующая функцию Я // Лакан Ж. Семинары. Книга 1: Работы Фрейда по технике психоанализа (1953/54). — М.: Гнозис/Логос, 1998. — С. 89–97.
  3. Левинас Э. Тотальность и Бесконечное: Эссе о внешности / пер. с фр. И.С. Вдовиной. — М.: Академический проект, 2013. — 413 с.
  4. Нагель Т. Каково быть летучей мышью? // Глаз разума / под ред. Д. Хофштадтера, Д. Деннета; пер. с англ. — Самара: Бахрах-М, 2003. — С. 349–360.
  5. Сёрл Дж. Разум, мозг и программы // Глаз разума / под ред. Д. Хофштадтера, Д. Деннета; пер. с англ. — Самара: Бахрах-М, 2003. — С. 314–331.
  6. Тьюринг А. Вычислительные машины и разум // Глаз разума / под ред. Д. Хофштадтера, Д. Деннета; пер. с англ. — Самара: Бахрах-М, 2003. — С. 47–59.
  7. Серединская, Л., Черданцева, И.В. (2023). Data Vice Body: трансформация телесности в аксиологическом аспекте трансгуманистических концепций. // Максимова, С.Г. (ред.) Сложные социальные системы в динамических средах. Lecture Notes in Networks and Systems, т. 365. Springer, Cham. 2023. (Электронный ресурс). URL: https://doi.org/10.1007/978-3-031-23856-7_2 (дата доступа 01.12.2025)
  8. Серединская Л.А. Нейрофилософия, йогачарья и «easy» онтология. Этюд о контрклассических проектах аналитической онтологии. // Вестник Челябинского государственного университета.  —Челябинск, ЧелГУ, 2018, вып. 51.
  9. Серединская Л.А., Черданцева И.В., Шукшин С.А. Нечеловеческий актор постчеловеческого общества // Вестник Челябинского государственного университета. — 2022. — № 5 (463). — С. 12–21.
  10. Хайдеггер М. Бытие и время / пер. с нем. В.В. Бибихина. — М.: Ad Marginem, 1997. — 451 с.
  11. Харман Г. Объектно-ориентированная онтология: новая теория всего / пер. с англ. А. Маркова. — М.: Ad Marginem Press, 2021. — 272 с.
  12. Чалмерс Д. Сознающий ум: В поисках фундаментальной теории / пер. с англ. В.В. Васильева. — М.: URSS: ЛИБРОКОМ, 2013. — 512 с.
  13. Хуэй Ю. Вопрос о технике в Китае. Эссе о космотехнике / пер. с англ. А. Зуева. — М.: Ad Marginem Press, 2019. — 312 с.
  14. Elish M.C. Moral Crumple Zones: Cautionary Tales in Human-Robot Interaction // Engaging Science, Technology, and Society. — 2019. — Vol. 5. — P. 40–60.
  15. Gunkel D.J. Robot Rights. — Cambridge, MA: MIT Press, 2018. — 241 p.