ИИ не может быть фундаментом системы доверия

Mar 27, 2026

ИИ не может быть фундаментом системы доверия

Введение

В последние годы искусственный интеллект превратился в универсальный ответ на любой вопрос. Автоматизация, персонализация, верификация, модерация — везде предлагается ИИ. Но есть класс задач, где это не просто неэффективно, а архитектурно неверно. Одна из таких задач — построение систем доверия.

Эта статья о том, почему ИИ не может быть несущей стеной системы доверия, и что должно стоять на его месте.


Как работает доверие между людьми

Человеческие системы доверия не строятся на проверке каждого факта. Это было бы невозможно — мы не можем перепроверять каждое утверждение каждого человека в реальном времени.

Вместо этого мы опираемся на три механизма:

  1. Репутация — история взаимодействий. Если человек раньше врал, это учитывается. Если всегда говорил правду — кредит доверия выше.
  2. Институты — суды, нотариусы, банки, государственные реестры. Они верифицируют критически важные факты по жёстким правилам.
  3. Социальные санкции — ложь имеет последствия: репутационные, юридические, социальные. Это создаёт стимул говорить правду.

Все три механизма работают в связке. Убери один — система деградирует.


Что умеет ИИ, а что нет

ИИ — это вероятностная машина. Он оценивает правдоподобие утверждения на основе паттернов, усвоенных при обучении. Если утверждение:

  • грамматически связно,
  • не противоречит известным паттернам,
  • встроено в правдоподобный контекст,

— оно проходит без флага. Это не доверие. Это отсутствие механизма верификации.

ИИ может возражать на явные нарушения заученных кейсов — например, заметить фактологическую ошибку в широко известном историческом факте. Но если пользователь говорит «я сам это видел, и вот как это выглядело» — у ИИ нет инструментов проверки. Он не может спросить у свидетелей. Он не может обратиться к реестру. Он не знает, врал ли этот человек раньше.

Более того: даже при наличии технической возможности для проверки ИИ-системы часто просто не выполняют все необходимые шаги. Вероятностная природа порождает вероятностное поведение — где-то проверит, где-то нет.


Два уровня вместо градиента

В человеческих системах доверия существует градиент: незнакомец, знакомый, приятель, друг, партнёр с историей, верифицированный институт. На каждом уровне — разный объём доверяемой информации и разные механизмы проверки.

У ИИ сейчас фактически два уровня: пользователь известен или не известен. Нет памяти о том, кто раньше предоставлял ложную информацию. Нет возможности «спросить у знакомого» — проверить утверждение через независимый источник в динамике диалога. Нет социальных последствий для того, кто солгал.

Это не недоработка конкретной модели. Это структурное ограничение подхода.


Архитектурная ошибка

Проблема не в том, что ИИ плох. Проблема в том, что его пытаются использовать не по назначению.

ИИ — это слой обработки и интерпретации. Он хорошо работает с неструктурированными данными, умеет объяснять, суммировать, генерировать, адаптировать. Но он не детерминирован. Один и тот же вход может дать разный выход. Вероятностная система не может быть фундаментом там, где нужна гарантия.

Строить систему доверия на ИИ — это архитектурная ошибка. Как строить фундамент из воды: умный, текучий, адаптивный — но держать не будет.


Что должно стоять в основании

Классические технологии незаменимы там, где нужна верификация, потому что они детерминированы. Несколько примеров:

  • Криптографические подписи — математически гарантируют, что документ не изменён и подписан конкретным ключом.
  • Блокчейн — обеспечивает неизменяемую историю транзакций без центрального доверенного лица.
  • Верифицированные идентификаторы — государственные ID, цифровые паспорта, биометрия — подтверждают личность по жёстким правилам.
  • Аудит-логи — неизменяемые записи действий, позволяющие восстановить историю.
  • Реестры — централизованные или распределённые базы проверенных фактов (право собственности, квалификации, судимости).

Всё это работает по правилам, не по вероятностям. Именно это делает их несущими стенами.


Роль ИИ в правильной архитектуре

Это не значит, что ИИ бесполезен в системах доверия. Его роль — поверх детерминированного фундамента:

  • Интерпретировать верифицированные данные для пользователя на понятном языке.
  • Выявлять аномалии и паттерны в больших объёмах структурированных данных.
  • Помогать пользователю формулировать запросы к верифицированным источникам.
  • Объяснять, почему конкретный факт вызывает сомнение — и предлагать, где проверить.

ИИ — хороший навигатор. Но навигатор не заменяет дорогу.


Почему всё равно так делают

Почему, понимая всё это, люди продолжают пытаться построить системы доверия на ИИ?

Несколько причин:

  1. Хайп — ИИ продаётся как универсальное решение, и рынок охотно покупает.
  2. Сложность альтернатив — криптография, реестры, PKI-инфраструктуры требуют серьёзной экспертизы. ИИ кажется проще.
  3. Скорость — ИИ можно развернуть быстро. Построить надёжную верификационную инфраструктуру — долго и дорого.
  4. Непонимание природы ИИ — многие воспринимают его как «умный компьютер», а не как вероятностную систему с принципиальными ограничениями.

Выводы

1. ИИ не верифицирует — он оценивает правдоподобие. Это принципиально разные вещи. Правдоподобное утверждение не равно истинному.

2. Системы доверия требуют детерминированного фундамента. Криптография, реестры, верифицированные идентификаторы — не опциональные добавки, а несущие конструкции.

3. ИИ уместен поверх фундамента, не вместо него. Интерпретация, навигация, объяснение верифицированных данных — это то, где ИИ действительно полезен.

4. Архитектурная ошибка дорого стоит. Система, построенная на ИИ как на фундаменте доверия, рухнет именно тогда, когда это наиболее критично — когда кто-то целенаправленно попытается её обмануть.

5. Нельзя решить проблему верификации только на уровне ИИ. Это не вопрос качества модели или количества параметров. Это структурное ограничение вероятностных систем.


Статья написана на основе обсуждения в чате. Тезисы сформулированы в диалоге с пользователем платформы.