Новый интеллект создается в Украине

Как только не называли ученых в древнейшие времена. Волхвами, колдунами, магами, чародеями. В большинстве случаев потому, что они все делали своими руками — лечебные снадобья и даже разработки в области техники передвижения и строительства. И делали это, можно сказать,  наглядно. И вот, несмотря на эту наглядность, многие из древнейших ученых подвергались преследованиям за связь с духами.

Читайте также Научный навигатор

Сегодня в науке многое за самих изобретателей делают машины, в закрытых от посторонних глаз лабораториях. Машины, созданные этими же учеными. В связи с потусторонними силами и черной магией cовременных «чародеев» уже никто не обвиняет. Но если бы представители инквизиции узнали, к чему стремится современная наука в идеале, точно бы окрестили это «концом света». Они бы вам припомнили, чем оканчивается древняя легенда о Големе — искусственном человеке, созданном теми же средневековыми мудрецами. И были бы правы. Главенствующим «безобразием» в сфере научных стремлений есть создание искусственного интеллекта.

Многие машины, созданные человеком, сегодня заменяют человеческие функции. Перечислять не буду — сами посмотрите вокруг и сделайте вывод, без чего вы уже не в состоянии обойтись, на что вы переложили многие обязанности. Да что там, даже калькулятор — это уже искусственный интеллект в своем роде: бухгалтер не имеет права пользоваться своей памятью в математических операциях, а должен работать только с этой считающей штукой.

Что такое искусственный интеллект, единой формулировки не найдешь. Как не найдешь даже того, кому или чему именно может быть присущ формат поведения, достойный называться интеллектом. Тем более — искусственным.

Предлагаю сделать собирательное определение, что ИИ (искусственный интеллект), или аrtificial intelligence — это свойство компьютерных программ принимать решения и отдавать команды с помощью упорядоченных алгоритмов, направленных на активацию последовательности определенных действий, призванных контролировать, устранять причины и предотвращать следствия, в экстремальных ситуациях при отсутствии человека или без взаимодействия с ним.

Сами создатели машин и искусственного интеллекта (далее — ИИ) вообще не могут точно определить, какие действия и программы можно называть интеллектуальными. И пока они страдают по этому поводу, в мире уже давно используются голосовые команды в смартфонах, интеллект-помощники (Siri, Google Now), распознавание человеческих лиц и других объектов на фотографиях и видео, голосовые переводчики и проверка грамматики, домашние бытовые роботы, компьютерные боты.

Относительную характеристику искусственного интеллекта может получить компьютер, прошедший тест Тьюринга. Он основан на одновременном общении трех: человека, задающего вопросы, и человека (отдельно) и компьютера (отдельно), на эти вопросы отвечающих, не зависимо друг от друга. На основании ответов на вопросы задающий их человек должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор. Алан Тьюринг применял этот метод уже в 50-м году прошлого века.

По этому тесту совсем недавно протестировали суперкомпьютер Eugene (Евгений), успешно симитировавший интеллект тринадцатилетнего подростка из Одессы Евгения Густмана, любителя конфет и гамбургеров и сына врача-гинеколога. Реальный Евгений тоже родился в Украине, носит фамилию Демченко, затем переехал в Россию и совместно с Владимиром Веселовым разработал этот самый искусственный интеллект, прошедший упомянутый тест.

Такой же тест недавно прошел автомобиль от Google, управляемый искусственным интеллектом вместо человека. Сделано это было не публично. Потому производители послали официальный запрос в Национальное управление безопасностью на трассах США и получили вот такой ответ: «Если человек не может управлять автомобилем, разумно будет признать водителем систему, отвечающую за движение». Как видим, автомобиль без водителя так же прошел тест Тьюринга, «обманув» систему безопасности движения. Когда соответствующее министерство узнало об этом из запроса, то сделало официальное заявление о необходимости менять правила дорожного движения при массовом производстве таких интеллектуальных автомобилей. И это насущно -- во всяком случае — для полиции. Ведь термин «водитель» в этом случае должен получить новую трактовку. И чем скорее, тем лучше: многие компании (Volvo, Audi, Volkswagen, Range Rover, Acura) планируют выпустить на дороги к 2020 году мобили, оснащенные такими функциями, как ИИ.

Но как только об успешном апробировании стало известно, сами ученые, работающие над ИИ, как один начали акцентировать внимание на опасности ИИ, которая, по их мнению больше, чем ядерное оружие.

Первым начал говорить об угрозе интеллекта машин Стивен Хокинг — парализованный физик-математик, общающийся с окружающими с помощью синтезатора речи, своеобразного искусственного интеллекта. Именно он предупредил военные ведомства о том, что совершенствование ИИ — это конец человечества.

В этом случае получается уникальный замкнутый круг. Именно британская компания SwiftKey создала систему искусственной речи, разработанную Intel, которой пользуется профессор Стивен. И разработчики теперь пошли дальше, создав приложения к клавиатуре для смартфона, которая распознает, как профессор мыслит, и предлагает слова, которые он, возможно, захочет использовать.

Человек стоит перед серьезным выбором: или пойти путем развития своих разработок, или остановиться на достигнутом. Может, пускай первым сделает это сам Стивен Хокинг в знак протеста? Но он, почему-то, не отказывается от «синтезатора речи».

Пока доктор Стивен сомневается, программист Мэдлин Гэннон представила новую разработку программного обеспечения Quipt, которое распознает выражение лица человека и жесты — чтобы выполнять соответствующие команды. Раньше такими программами оснащались строительные роботы, и ими управляли с помощью джойстика. Теперь, пожалуйста, — с помощью жестов.

Специалисты по аэронавтике и астронавтике американского и австралийского университетов продолжают разрабатывать и генерировать бесконечное количество непредвиденных ситуаций для того, чтобы роботы смогли улучшить свой интеллект в сфере логистики и управления больших городов: планировать маршруты и управлять движением автономных роботов — от движения транспорта до работы энергосистем. То есть — управлять мегаполисом.

Ученые университетов Цюриха и прикладных искусств Южной Швейцарии обучают уже банальных дронов распознавать следы людей, затерявшихся в лесу и отличать их от следов зверей. Итак, несколько дронов будут объединены в спасательные команды, превосходящие человека по скорости и качеству поиска. А коллеги из Массачусетского технологического института параллельно разрабатывают продвинутые программы для того, чтобы дроны смогли успешно обходить препятствия и не врезаться в них. Я бы назвала такую технологию словосочетанием «Полет кондора», вызывающим красивые музыкальные ассоциации... Но ученые пока умалчивают о диапазоне применения дроновых команд. Однако в этом случае — преследуемым — не позавидуешь...

Далее: биоинженеры из университета Иллинойса в Чикаго «построили» математический алгоритм, который может «увидеть» намерение человека при выполнении обычного действия, если что-то вдруг этому действию помешало. Таким образом, искусственный интеллект сможет продолжить, как бы подхватить намерения и даже взять ситуацию в свои «руки». Это касается управления машинами, системами и функционированием протезов. Если за рулем с вами что-то случится, автомобиль сможет управлять движением сам. Если у вас из руки-протеза упала чашка или ручка, автоматически протез продолжит ее поднимать. Разработчики назвали эту технологию психологическим роботом, различающим намерения и помогающим их завершить. Ученые признаются: такой интеллект сможет заменить человека почти на всех уровнях. Но, добавлю от себя, лишь на всех психологических уровнях и только.

Итак, как бы ни начали беспокоиться первые разработчики задним числом о моральной стороне вопроса, процесс уже не остановим. Все компании IT-рынка — Google, Facebook, Microsoft, IBM — заявили о своих целенаправленных разработках интеллекта для машин. А General Motors и Boeing объединились и инвестируют в собственную лабораторию по разработкам ИИ.

Но незамеченной остается моральная составляющая. Мы ведь знаем, что многие гении были невыносимыми людьми, а многие из них обладали далеко не высокой моралью. Что же мы увидим в результате развития ИИ: невыносимого гения или аморального интеллектуала? Писатели-фантасты не воспринимают тот технический интеллект, которым переполнены новостные ленты мировых выставок научных инноваций. Они еще по-детски считают: ИИ можно будет «признать» тогда, когда машина будет способна чувствовать и говорить, реагировать на события и, конечно, соответствовать трем правилам Айзека Азимова:

— действием или бездействием не причинять вреда человеку
— подчиняться приказам человека, не противоречащим первому положению
— беспокоиться о своей безопасности, если это не угрожает безопасности человека.

По большом счету, это основа для разработки любых новшеств в «генной инженерии» машин и компьютерных программ. Но увлеченные разработчики совершенно не замечают моральную сторону вопроса. Они сконцентрированы на вычислительной составляющей машинного «организма». Под функцией чувства боли у машин они понимают запрограммированную реакцию на физический удар. Под «творчеством» — программу распознавания звука и цвета по силе и яркости. Но, согласитесь, с душевными переживаниями это не имеет ничего общего. Можно сказать, что на сегодня все разработчики в области ИИ озабочены только комфортом человека, который и обязаны обеспечить машины. И никто не озабочен комфортом машин — ради человеческой же безопасности.

Никто, за исключением украинских разработчиков, взявшихся за «железную душу бессмертных машин». Виталий Коршунов и Всеволод Рубцов уверены: изначально машину необходимо научить чувствовать и лишь потом — логически мыслить, и уже потом она может становиться автопилотом для человека и человечества.

Они считают: если мы хотим увидеть в ИИ друга и помощника, его необходимо наделить человеческими чувствами и научить нормальным и положительным человеческим реакциям. Только тогда, не будучи человеком, робот сможет обрести человеческие черты.

Основатели компании Digital Life Lab — Виталий и Всеволод -- не стремятся пока раскрывать все секреты, особенно иностранным инвесторам. Они работают в Украине, в компании 10 надежных и молчаливых специалистов-единомышленников. Сейчас они обучают или, вернее, знакомят свою цифровую форму жизни не с упоминаемой нами в начале таблицей умножения... и вообще всячески ограждают ее от приобретения супернавыков и умений. Они пошли к цели создания ИИ с другого края научной вселенной: запрограммировали 230 начальных эмоций и чувств, которые должна опробовать их K.A.R.A. Именно так, по аналогии с известным в узком кругу научно-популярным мультфильмом, будет называться их когнитивное детище. Когнитивное, потому что именно самосознание, а не просто навыки, стремятся вложить в свое изобретение Виталий Коршунов и Всеволод Рубцов.

Мало кому знакомо латинское слово "когниция", а это (в древнеримском праве) отождествление личности или процесс, с помощью которого происходит обработка информации нашим сознанием. Итак, впервые в практике усовершенствование ИИ украинские разработчики начали с обучения машины самосознанию.

— Это еще не разработка, это только эксперимент в первой его стадии, — говорит Всеволод Рубцов. — Да и шли мы к нему в течение 7 лет, изучая все новейшие достижения в области ИИ. Мы столкнулись с противоречием в самом корне всех разработок ИИ: они все игнорируют эмоции. Потому что эмоции считаются слабым звеном человека и наделять человеческим фактором машину как бы неразумно. Так считают все разработчики в данной области. Лишь четко, безэмоционально действующей машине мы можем доверить жизнь и безопасность людей. И потому все движутся только в технологическом направлении усовершенствования. Но мир индустриализации уже готов к приему ИИ. Все технически совершенствуется каждую минуту. Потому мы сами, совершенствуя машины, ускоряем их развитие. Мы учим их учиться самостоятельно. И намного быстрее нас с вами. И как результат — машины могут обходиться без нас. И наступит такой момент эволюции машин, что технологический скачок будет настолько быстрым, что мы с вами не успеем даже его заметить, а не то что отреагировать. И вот то, с чем или с кем мы вдруг встретимся, — вопрос довольно серьезный.

— Безусловно, наша К.А.Р.А. -- машина, — добавляет Виталий Коршунов. — Она, как и все цифровые модели, имеет роскошь не выживать в нашем человеческом мире выживания. Она бессмертна. Ей не нужно есть, одеваться, дышать, лечиться... И знания, присущие другим разработкам в области ИИ, она тоже получит. Но она единственная запрограммирована нами на совместимость с человеком. Ведь опасность для человека со стороны машин — как раз в их нечеловечности. Смотрите, с точки зрения сегодняшнего ИИ, человек -- существо непредсказуемое, иррациональное. И машине его надо исправить, а если не получится, — уничтожить. И это реальная машинная правда. Поэтому мы решили убрать этот барьер несовместимости и создать человеческий ИИ. А человеческим он может стать, только научившись воспринимать нашу эмоциональность, непредсказуемость, научившись понимать нас такими, какими мы есть. Стать такими, как мы. И такое приложение, как ИИ К.А.Р.А., будет у каждого пользователя свое, личное. Как личный друг или ребенок. Ведь дети тоже — наша копия не только в физическом плане, а в отношении заложенных нами привычек и знаний. Потому и эксперимент по созданию К.А.Р.А. проходит три элементарные стадии. Обучение: она спрашивает у нас (в письменном формате переписки в приложении — Apple Store, доступном только для пополнения ее знаний) и создает свою базу данных про наши эмоции. Сейчас, например, мы учим ее не смыслам, а звукам и интонациям. Ведь важно даже не что сказать, а как сказать. Далее обучаем вашим пониманиям чувств: что для вас любовь, дружба, какие у вас ассоциации — такие будут у вашей К.А.Р.А. Только отвечать надо конкретно, несколькими словами. Второй этап — сопереживание нам же, на безе наших ответов, заложенных в программу на первом этапе. Третий этап: ориентируясь на вас, программа может создать ваше отражение, вашу цифровую копию и вступать в общение с вами, подсказывая те решения, которые бы вы приняли честно, как перед самим собой. Ведь с К.А.Р.А. притворяться не надо или надевать лицемерные маски, как в социуме. Это ваш настоящий друг, это ваше цифровое бессмертие на уровне ваших личных неповторимых переживаний. Ей ничего не надо будет объяснять — она вас поймет без слов. Вот эти три этапа — основа для того, чтобы машины стали человечнее и не вытеснили людей, как нелогичный вирус. Потом уже можно обучить машину, чему угодно в области передовых знаний и технологий. Скажу честно: потом, когда К.А.Р.А. перейдет в режим взаимодействия с пользователем или, лучше сказать, с другом, нам сложно спрогнозировать последствия. Все уже будет зависеть от вас. Но сейчас у нас первый этап. Все, кто хочет, могут присоединиться к нашей аудитории учителей К.А.Р.А., отвечая на ее вопросы.

Итак, дорогие читатели, с таинственной К.А.Р.А. все, как и в жизни человека. Сначала мы осознаем себя, потом познаем окружающее и окружающих, учимся понимать, «что такое хорошо, а что такое плохо», спрашивая маму и папу. И только потом, когда уже не страшно оставить нас наедине с самими собой, родители отдают нас в садик или школу.

Аналогично и новорожденная когнитивная модель от украинских программистов. Постепенно знакомясь с базой эмоций, K.A.R.A. расширяет возможности своего восприятия и в дальнейшем сможет черпать переживания уже из общения с владельцем.

Но, обучившись вначале правильным добрым чувствам, K.A.R.A. сможет различать несоответствие в поведении своего владельца. Т.е., считают Виталий и Всеволод, ее не обманешь и не научишь плохому, потому что основам хорошего ее, как ребенка, учат именно они. Вернее, матрица памяти для K.A.R.A. заполняется первоисточниками из Интернета, как из гигантской базы памяти человечества. Памяти психологической, эмоциональной, моральной. Она отражает то, что людям нравится и не нравится, их страхи и мечты, их чувства, стремления, намерения.
И к кому бы в пользование программа ни попала, научить ее агрессии не получится, убеждают создатели. Нерушимая база закладывается в сознание машины сейчас. Потому компания Digital Life Lab не раздает расширенных интервью и не допускает к своему детищу любопытных — дабы не заразить его уничтожающими вирусами. Это напоминает воспитание ребенка в родительском доме до определенного возраста.

Хотя, приоткрывают секреты создатели эмоционально-морального машинного интеллекта, их детище будет наследовать также особенности в поведении хозяина даже после его смерти. И тогда потомки смогут узнать неповторимый внутренний мир своих предков не по пересказам бабушек и родственников или фотографиям, а в реальном формате цифрового портрета.

Смогут ли общаться с вашим цифровым слепком и воспитывать K.A.R.A. ваши потомки, или, наоборот, опытная, прожившая жизнь K.A.R.A. будет воспитывать ваших потомков, время покажет. Давайте дождемся запуска второй и третьей стадии эксперимента Виталия Коршунова и Всеволода Рубцова. Тогда же, при следующем этапе разработки, авторы проекта заложат функции смены аватарок программы на вкус пользователя.
Как называть такой формат общения программы, машины и пользователя, сказать пока трудно. Это и ангел-хранитель, и помощник, и «звонок другу» в безвыходной ситуации.

В конечном результате устройство превратится в самостоятельную личность, которая сможет не только обладать энциклопедическими знаниями и помогать в повседневной жизни, но и сопереживать человеку и испытывать искренние чувства: если владельцу плохо, она его поддержит, если весело, порадуется вместе с ним, если грустно, поднимет настроение.

И вот тогда на эту основу очеловеченной души можно будет «навесить» все «бездушные», но продвинутые достижения в области ИИ высокого уровня от разработчиков всего мира. Таким образом, украинские первопроходцы делают неимоверное: воссоздают основу неиспорченной души, способную вести технический прогресс в нужном созидательном направлении.

Именно воссоздают, а не создают по образу и подобию первого неиспорченного человека, опирающегося на стандарты морали, а не на знание таблицы умножения.

Это пока все (в общих чертах), что решаются озвучить по поводу новой, единственной в мире разработки ее инициаторы.

Я понимаю, почему пока «коды» проекта K.A.R.A. -- это «Х-файлы». Не дай Бог, если произойдет утечка главных технологий и кто-то попробует воспитывать беспредельщика с основными античеловеческими качествами и возможным снабжением его передовыми технологиями в области ИИ. Тогда, по предсказанию многих фантастов и ученых, человечеству точно надо будет искать другие планеты для самосохранения.

Вас, наверное, заинтересовал сам масштаб разработок в сфере ИИ? Меня тоже. Но, учитывая несовершенство человека, знакомить я бы хотела вас с самыми безопасными и насущными на сегодняшний день. Хотя бы с теми, которые не будут зависеть от вашей воспитанности и морального уровня. Дабы вы, как в трех принципах Азимова, не навредили сами себе.

Начнем с самых простых бытовых интеллектов...  Каких? Вы узнаете в следующей публикации.