Защищена ли «искусственным интеллектом» бывшая «служанка американского империализма»?

Моисей Гельман

В 1948 г. американский математик Норберт Винер опубликовал свой знаменитый труд «Кибернетика, или управление и связь в животном и машине». В нем обобщались основания математики, физики, автоматического управления, вычислительной техники, физиологии, биологии, экономики и других научных дисциплин. Аксиомой кибернетики является невозможность машины быть умнее своего создателя. Если, допустим, автомобиль перестал «слушаться руля» и катится в пропасть, то это свидетельствует не о том, что машина стала умнее хозяина и решила куда-то «сбежать» от него, а о ее неисправности. Но в СССР кибернетику тут же причислили к идеологии, враждебной социализму, и назвали «служанкой империализма», что нанесло немалый ущерб развитию страны. Поэтому перевод книги на русском языке появился лишь в 1958 году.

Тем не менее, успехи в области электронной техники в СССР тогда были немалыми. К примеру, в 1967 г. на международной выставке в Лондоне Советский Союз продемонстрировал первый в мире персональный компьютер МИР – машину для инженерных расчетов. Ее создали в 1964 г. в Институте кибернетики АН Украины, которым руководил академик Виктор Глушков.  МИР в транзисторном исполнении умещался на письменном столе, в нем использовались основные принципы современного персонального компьютера. Это был прообраз нынешней «персоналки». Новую мини-ЭВМ купила компания IBM. Странно, но американцам продали тогда новейшее засекреченное вычислительное устройство. А Виктору Глушкову выдали международный сертификат, подтверждавший, что первый в мире персональный компьютер создал именно он. Однако сертификат не заменил патента. При этом заокеанские специалисты получили в свои руки новейшую советскую разработку, имевшую стратегическую значимость. И вскоре в США создали более компактный функциональный аналог американского бренда. На основе МИРа в 1963 г. был разработан первый в мире проект сети Интернет, включавшей в разных точках страны около 100 центров обработки данных и соединенных между собой широкополосными каналами связи. Система предназначалась для автоматизации государственного экономического планирования. Но в политбюро ЦК КПСС испугались политических конкурентов и возможных идеологических диверсий. К тому же в Кремле сменилась власть, и новому руководителю – Леониду Брежневу было не до передовых научно-промышленных разработок.

Достижения Советского Союза в разработке компьютеров в 1960-х — 1970-х годах были сопоставимы с американскими. Эффективным ответом, особенно по затратам, на американскую Кремниевую долину явилось создание в 1962 году центра микроэлектроники под Москвой – Зеленограда с хорошо продуманной кооперацией. За короткое время были созданы новые крупные предприятия кремниевой микроэлектроники в Ленинграде, Минске, Риге, Воронеже, Баку, Вильнюсе и Киеве. Советская электронная отрасль имела тогда высокотехнологичные КБ, НИИ и заводы во всех союзных республиках. На минском предприятии «Планар» создали современное литографическое оборудование: генераторы изображения и установки для нанесения топологии интегральных схем на кремниевые пластины. Развитие электроники позволило разрабатывать технику для космических исследований и других отраслей машиностроения, в частности, робототехнику, в том числе, современные станки с числовым программным управлением.

Но в 1980 -1990 годы многие государства, до той поры не имевшие собственного производства микроэлектроники, сумели с нуля создать свою электронную промышленность и выйти на мировой рынок, захватив его значительную часть. Это Южная Корея, Тайвань, Сингапур, Малайзия и Китай. Нынешний объем мирового рынка микроэлектронных приборов превышает триллион долларов и продолжает возрастать. А у нас чиновники в начале 1970-х запустили в производство по американской лицензии устаревшую модель ЭВМ семейства IBM 360 и одновременно запретили новые разработки отечественных вычислительных устройств. Видимо, чтобы предотвратить конкуренцию для своей спокойной жизни.

Последующее отставание в автоматизации процессов управления нанесло нашей стране громадный ущерб. А после развала СССР отставание приобрело катастрофический характер, что отбросило отечественные системы управления и вычислительную технику лет на 40 назад. Этому во многом способствовала ложь чиновников о создании ими новой передовой техники, что нередко порождалось и порождается масштабной коррупцией и некомпетентностью сочинителей этой лжи. Так веками поддерживался развал государства и общества, причинами уходящий корнями во времена царского самодержавия.

Чиновники, чтобы придать значимость своим зачастую абсурдным и меркантильным прожектам, для прикрытия их лживой сущности нередко используют притянутые за уши лженаучные понятия и решения. Они зачастую опасны для государства и общества. Наглядным тому примером является «оптимизация здравоохранения», ложная с точки зрения кибернетики и основанная на надуманных социально-экономических критериях, включая обязательное медицинское страхование. Ведь оптимизация чего-либо требует обоснованных количественных и качественных показателей здоровья и благополучия населения, в противном случае оптимизация оказывается ложной. Однако обязательное медицинское страхование населения далеко от идеала.

Неграмотное понятие «оптимизация здравоохранения», порочность и губительность которого вот уже много лет ощущает на себе почти все население РФ, ввели чиновники. Началась она в 2010 году, тогда намечалось упорядочить зарплаты медработников за счет закрытия «неэффективных» больниц. Однако что такое неэффективные медучреждения не пояснялось, единого нормативно-правового документа о реформе здравоохранения не существует, а во многих правительственных постановлениях и указах президента страны говорилось о различных и противоречивых целях ее осуществления. О печальных и опасных результатах псевдореформы здравоохранения широко известно, но ее инициаторы и исполнители не понесли никакого наказания. Глава правительства Михаил Мишустин, в частности, признал, что Российская Федерация по количеству больниц в 2020 году приблизилась по этому показателю к уровню Российской империи 1913 года. Если, к примеру, в 1990 году в России было 140 тысяч «инфекционных» больничных коек, значительная часть которых предназначалась для резервирования, то к 2018 году осталось 59 тысяч — к чему привела ликвидация «неэффективных» больниц показала пандемия. Если в сельской местности в 2005 г. было 8,3 тысячи больниц, то к августу 2019 г. осталось менее двух тысяч. Ежегодно в стране «оптимизировали» в среднем по 300 с лишним больниц, в основном путем их  ликвидации. Таким образом оптимизацию здравоохранения подменили минимизацией здоровья населения.

Человеческий разум не может существовать вне человеческого мозга, или, иначе говоря, машина не может быть умнее, в широком смысле этого понятия, своего создателя. Но умных создателей нового в мире относительно немного. А менее умные люди, которых относительно тоже немного, могут лишь воспроизводить (моделировать) решения создателей нового. Перефразируя сказанное персонажем Шолома Алейхема, можно сказать, что интеллект существует вне всяких придуманных для него прилагательных, он как деньги: либо они есть, либо их нет. И хотя «искусственного интеллекта» сегодня в природе не существует, и вряд ли когда-нибудь он появится — им подменено понятие «автоматическое управление», — многие чиновники бодро рапортуют о его создании в разных сферах.

Недавно система автоматического управления одного из финляндских банков заблокировала счет жительницы города Хейно при переводе ей 600 евро за страховку её собаки по кличке Ира. В назначении платежа было записано Iran vakuutus, что в переводе означало «страховка Иры». Но «искусственный интеллект» банка воспринял это словосочетание ошибочно как «страховка Ирана», и счел денежный перевод нарушением международных санкций в отношении этой страны. Устранили ошибку лишь через несколько дней после жалобы владельца счета. Хотя любую неопределенность банк обязан был бы устранять вручную без обращения клиента, включая и явно избыточное в платеже упоминание клички собаки. Но при «цифровизации» нередко игнорируется необходимость тщательного редактирования текста «искусственного интеллекта». Происходит это, невзирая на грамматические и смысловые ошибки, даже если они ведут к абсурду в изложении данных и последующим возможным неприятностям для людей, как в случае со страхованием собаки Ира. Но об этих ошибках авторы проектов «искусственного интеллекта» и банки почему-то часто лишь предупреждают, хотя они должны их контролировать и устранять при проектировании систем и их эксплуатации.

В последние годы нарастает опасность для человечества, порождаемая угрозами «искусственного интеллекта». Речь идет о возможных ошибках мышления и проектирования, обусловленных неполнотой знаний, недостаточностью интеллекта, непродуманностью решений и недобросовестностью разработчиков систем автоматического управления, что получило широкое распространение при разработках аппаратно-программных продуктов вообще, и искусственных нейросетей, в частности. Все это усугубляется бесконтрольностью деятельности их создателей. Дело в том, что программно управляемый автомат не может самоосознавать себя, то есть мыслить, и для этого он не может подумать и захотеть что-либо сделать или обмануть кого-либо. Но такие автоматы способны вводить в заблуждение людей и своим поведением производить впечатление, будто они все это могут.

Недавно нейробиологи Массачусетского технологического института опубликовали в британском научном журнале Philosophical Transactions of the Royal Society статью, которая может вызывать, мягко говоря, недоумение. Она посвящена построению компьютерной модели, которая якобы способна предсказывать эмоции людей, в том числе радость, благодарность, замешательство, смущение, сожаление, вызывая ответные реакции. Спрашивается, каким образом можно моделировать абстрактные человеческие эмоции и обмениваться ими с живым человеком? Поэтому, по мере того как диалоговые автоматы типа Алисы в своих действиях становятся все более похожими на «общающихся» с ними людей, крайне важно разрабатывать эффективные способы изучения их обоюдного поведения, чтобы не попадать в ловушки антропоморфизма.

Под антропоморфизмом понимается перенесение человеческого образа и его свойств на неодушевлённые предметы, животных, растения, природные явления, сверхъестественные существа и прочие абстрактные понятия. Они отображаются средствами языка, видами изобразительных искусств и другими художественными и графическими средствами. Для этого упомянутые предметы и явления могут наделяться человеческими свойствами, физическими и эмоциональными, и имитировать человеческие действия, в том числе разговоры и эмоции, а также самообучаться в рамках задаваемого человеком словарного запаса слов и образов.

В кибернетике известна модель самообучающейся системы — «мышь в лабиринте». Электронная «интеллектуальная» мышь-робот, случайным образом забегая в тупики лабиринта, запоминает их и постепенно, путем проб и ошибок, находит дорогу к выходу. При повторном ее запуске в лабиринт она уже без блуждания, так как самообучилась, направляется сразу на волю. Таким образом, к примеру, на тренажерах учатся летать пилоты самолетов.

В мировой практике известны и подробно описаны два сценария поведения «мыши». В первом из них выход в лабиринте существует, и мышь, обучившись, всегда убегает из западни. По второму сценарию выхода в лабиринте не оказывается. И бедная мышь, ткнувшись во все тупики и запомнив их, вынужденно возвращается к месту старта. Причем вторично ее в лабиринт уже не загонишь. Наши реформаторы много лет кряду демонстрировали третий сценарий поведения мыши — это когда мышь выполнена с дефектом: что-то не туда запаяли в ее электронном мозгу. И поэтому, забежав в первый же попавшийся тупик, вместо того, чтобы выбраться из него и продолжить поиск выхода, она в шоке неистовствует и вгрызается в стенки тупика. Вплоть до самоуничтожения.

Разновидностью самообучаемой системы является искусственная нейронная сеть. Это математическая модель, а также её программное и/или аппаратное воплощение, построенные по принципам организации и функционирования биологических нейронных сетей. Нейросеть представляет собой систему соединённых и взаимодействующих между собой простых процессоров. Будучи соединёнными в большую сеть, они в совокупности способны выполнять довольно сложные задачи. Разновидностью такой сети является робот-собеседник, в переводе с английского — чат бот. Это виртуальное устройство, запрограммированное для общения с одним или несколькими пользователями.

Недавно чат бот, то есть робот дрон, управляемый «искусственным интеллектом» на основе нейросети, «убил» своего оператора, решив, что тот мешает выполнению его заданию. А чтобы дрону не мешали другие беспилотники, для гарантии успеха он предварительно «взорвал» узел связи центра управления. Утверждается, что это произошло при имитации военных учений, о чем на майской конференции Королевского аэрокосмического общества в 2023 г. в Лондоне рассказал полковник ВВС США Такер Гамильтон. Об этом сообщила газета The Guardian, что «взорвало» Интернет. Подробности описания происшедшего дают основания предположить, что для автоматического выполнения возможного боевого задания «непослушный» дрон на самом деле взорвал узел связи. Очевидно, беспилотник вывел его из строя до выполнения основного задания, и только после этого смог полететь дальше. Случиться это могло либо ввиду отказа техники в результате ее неисправности, либо из-за какой-то операции, не предусмотренной алгоритмом системы управления.     

Как отмечалось на заседании в сенате США, технологии «искусственного интеллекта», над которыми работают зарубежные компании, могут содержать ошибки, в том числе принципиально неустранимые, и представлять угрозу для человечества. Об этом говорится в письме, которое подписали свыше 350 научных и инженерных исследователей в области автоматического управления и искусственных нейросетей. Среди них Джеффри Хинтон и Йошуа Бенджио, получившие престижную премию Тьюринга за работу в области нейронных сетей, а также топ-менеджеры ведущих кибернетических компаний: глава OpenAI — Сэм Альтман, глава Google DeepMind — Демис Хассабис, и глава Anthropic — Дарио Амодеи.

Письмо было опубликовано ввиду растущей потенциальной опасности широкого распространения чат ботов. Поведение роботов на основе искусственных нейросетей может быть непредсказуемым. Поэтому такие разработки вызывают растущую обеспокоенность из-за потенциальной опасности бесконтрольности их применения, и они должны заблаговременно рассматриваться, наряду с пандемиями и ядерными войнами, как большие общественные риски.

Оцените статью
Промышленные Ведомости на Kapitalists.ru