Сегодня просматривается два ключевых рабочих подхода в повышении эффективности управления быстрыми процессами.
Первый – апологетом его является, например, Маск и т.п., и заключается он в создании нейроинтерфейсов, через которые человек сможет управлять быстротекущими процессами – самолетом, оружием и т.п. Проблемы такого подхода, в том числе, и в том, что мозг человека думает, как оказалось, быстрее самого человека! И этот феномен очень затрудняет нейроинтерфейсное управление. Кроме этого, там есть, конечно же, еще огромное количество препятствий и просто задач, но как-то – шаг за шагом - эта технология развивается, и возможно уже скоро мы увидим даже приличные по эффективности решения. Но пока до них, похоже, далеко.
Второй подход предполагает, что задачи, требующие высокой скорости решения, будет решать некий «автомат» (частным случаем которого является ИИ), а человек будет определять лишь граничные условия решения – те граничные условия, которые автомат не может сам исследовать в силу непреодолимой ограниченности его модели мира.
Для примера представим себе такую ситуацию, в которой автомат решает классическую в военном деле задачу распределения неоднородных средств поражения по неоднородным целям. Например, речь идет об отражении массированной атаки с воздуха. Решая задачу в моменте и не зная, каковы вероятности второй и третьей волн атаки, не зная возможную мощность этих волн и их состав, автомат может отработать по текущим целям тем оружием и боеприпасами (полностью израсходовав их), которые могут оказаться крайне важными для отражения следующих волн. Более того - может оказаться так, что другим оружием и боеприпасами цели последующей волны поразить просто невозможно. И вот тут важно оперативное участие человека, который может «ползунками» изменить приоритеты использования тех или иных боеприпасов в моменте, исходя из его понимания общей обстановки, а не только текущей ситуации.
Причем, сегодня это делается «ползунками», а завтра то же самое можно будет делаться и с использованием нейроинтерфейса. Суть подхода при этом не меняется, но появляется возможность делиться с компьютером не только логикой, но и чувствами. И это может быть весьма эффективно… если научиться управлять своими чувствами.
Но, как бы то ни было, мы получаем хороший эффект – автомат почти мгновенно решает задачу оптимально распределения, которую человек решить, если и может, то за пару десятков минут (если очень хорошо этому обучен). И то … что-то мне не верится в то, что человек способен решить вручную задачу нелинейной оптимизации, да еще и в конфликтной постановке (с учетом противодействия противника) - сегодня с этой задачей только компьютер справляется. А человек при таком "симбиозе" должен лишь актуализировать систему ограничений для автомата, поскольку человек в состоянии видеть обстановку широко и далеко – с учетом далекоидущих последствий, чего автомат не может, в принципе.
Я в качестве примера привел иллюстрацию из ПВО, но таких примеров можно привести множество. Например, когда автомат решает задачу спасения заложников, то ему необходимо, чтобы кто-то определил допустимую для автомата степень агрессивности действий, совершаемых по отношению к террористам. Может ведь сложиться и такая ситуация, в которой террористы/диверсанты должны быть ликвидированы любой ценой, несмотря на сопутствующие потери среди мирного населения. И вот тут только человек сможет оперативно оценить обстановку достаточно комплексно (хоть и не математически точно) и подсказать через соответствующие ограничения стратегию действий автомату.
Получается достаточно эффективный симбиоз.
Но если всмотреться в последний пример внимательнее, то можно увидеть следующее – человек в некотором смысле определяет автомату этическую норму искомого решения, поскольку его оценка, передаваемая автомату, включает неявно, в том числе, и этическую оценку возможных вариантов действий.
А это уже интересно !
Дело в том, что такого рода этические нормы актуальны не только тогда, когда речь идет о ситуациях, в которых требуется быстрое и эффективное решение - когда речь идет на секунды, и даже на доли секунды. Такая же этическая норма актуальна и, например, когда формируются решения в области социально-экономического развития страны. Даже при формировании стратегий страны и отраслей такого рода этическая норма актуальна.
Но тут же возникает технологический вопрос – как соединить этические нормы с автоматом-решателем?
Ответ очевиден – необходимо глубоко исследовать этические нормы и "разложить их по косточкам" – вплоть до обретения ими кибернетической точности и однозначности.
Как это сделать?
А именно так, как мы на Катакомбе и делаем, пытаясь кибернетически препарировать различные нормы, сталкивая, при этом, разные видения этих этических норм, этических оснований, ценностных установок, различные видения глобальных целей и т.д. и т.п.
Тут необходимо хорошо уяснить для себя следующее: проникновение ИИ во все сферы человеческой жизни уже неизбежно. Где-то это будет тот чат-жэпэтэшный и ему подобный ИИ, который будет помогать решать ряд весьма важных задач, где-то это будет какой-то новый ИИ, где-то это будет ИИ в расширенном его понимании. Но он будет везде. Причем, скорость его проникновения в нашу жизнь, похоже, выше, чем когда-то была скорость смартфонизации. И от того, насколько мы сможем встроить в ИИ наши представления об этике, эстетике, возвышенном, глобальных целях и смысле жизни(!), и т.п., зависит, возможно, и то, что будет дальше с нами - с человечеством. Но встроить наши "фундаментальные истины" мы сможет лишь в том случае, если добросовестно проведем ревизию через кибернетическую призму каждому привычному догмату, каждому категорическому императиву, каждому элементу категориальной матрицы и категориального базиса, каждой аксиоме, каждому мифу, каждому страху ... и т.д. и т.п..
Некоторая проблема есть в том, что препарировать всё это придется "заскорузлым" кибернетикам. Причина в том, что специалисты, обладающие гуманитарным складом ума, чьей вотчиной была эта тема всегда, не имеют навыков (да и не должны, иначе станут кибернетиками и т.п.) отчетливого – «скальпельного» мышления. Они больше оперируют чувственными моделями, чем когнитивными. У них получается мыслить широко и далеко, но за это они платят некоторой «мутноватостью» в деталях. И это нормально – без этого просто никак, но эту "мутноватость" в ИИ не засунуть! Однако, надеюсь, вместе мы - гуманитарии и кибернетики - разберемся! 😊
Тут здорово бы помогли еще и философы … но я пока даже не знаю – какие. Что-то не внушают мне доверия все те философы, которых я сегодня вижу, читаю и слушаю. Заболтают всё, как всегда, забьют цитатами, начнут меряться друг перед другом и на публику своими ... индексами Хирша, подписчиками в соцсетях, и т.д. и т.п., а толку никакого не будет – только застопорят дело.
Но может быть я где-то не там ищу? Может быть где-то «в секретных подвалах Лубянки» сидят ух какие крутые философы, способные … ? "В подвалах Лубянки сидит весь философский бомонд во главе с Синеокой"... звучит интересно!
Но бог с ними – с философами! Пока будем разбираться без них - сами! Не впервой.
И вообще – тема интеграции этики (как установок на нечто глобальное и не до конца пока еще сформулированное) – это хорошая тема. Увлекательная! Резонирует с русским менталитетом. Пока другие голову ломают, как создать максимально эффективный искусственный интеллект (голема), мы думаем о том, как из него сделать … человека! А может даже и …Человека! Посмотрим, как пойдет. Тут же главное – как и у Левши – была бы задача, кусок хлеба и чтобы никто надо душой не стоял – нервы не трепал. А мы уж как-нибудь разберемся 😊
Ну а если у нас не получится, то будет просто ИИ ... без этики. Тоже вариант. Но какой-то он .... не очень !
ПС. Есть еще третий вариант "симбиоза" человека и ИИ, когда ИИ вырабатывает решение, а человек оценивает его применимость. Но это в быстрых системах не работает. Да и в медленных работало , как правило, лишь на бумаге, поскольку в сложных случаях (а именно для этих случаев и строится система поддержки принятия решений) человек просто не в состоянии глубоко оценить решение, которое предлагает ему ИИ. Человек может отвергнуть решение лишь на основании того, что оно ему не нравится, но то, что это, например, единственно возможное решение - этого человек сам (без ИИ) понять не сможет. И попадет в тупик. Как правило - попадает.