Искусственный Интеллект. Концепция развития и внедрения Искусственного Интеллекта (Искусственной Аналитики)

Такуж сложилось, что понимание Искусственного Интеллекта (ИИ), его конечных функций и рисков у каждого своё. Однозначных трактовок нет и у экспертов. Понятие «искусственный» достаточно конкретное, т. е. подобный человеческому (натуральному). А вот «интеллект» трактуется, как «умственное начало» либо «умственная способность», что можно интерпретировать по-разному. Что и происходит. Принимая желаемое за действительное, кибернетики констатируют наличие ИИ. Это искажает координаты во времени и архитектуру ИИ как цели.

Задача данной статьи структурировать имеющиеся знания об ИИ и расставить всё по местам. Выявить причины отсутствия существенных достижений в этой области, обозначить путь решения данной проблемы и конкретизировать риски ИИ. Последовательное решение этих задач в данной работе помогут заинтересованным лицам разобраться в хитросплетениях изрядно запутанной темы.

Цель данной работы — обосновать, что понятие ИИ нужно рассматривать под новым углом, а именно: с включением в данное понятие не только инструмента для решения технологических задач, но и инструмента эквивалентного и превышающего аналитические возможности человека. То есть,системы способной анализировать явления социального характера для возможности прогнозирования будущего, что может стать возможным при трансформации социологии вточнуюнауку через её алгоритмизацию.

1.Актуальность ИИ

Принципиальнейший вопрос ИИ в следующем. Существующий тренд исследований в ИИ направлен исключительно на решение технологических задач. Человеческий же интеллект занимается в основном решением личных, общественных и социальных проблем и его «успехи» оставляют желать лучшего. Мы совершенствуемся технологически и прямо пропорционально множим социальные риски: кризисы, эпидемии, конфликты, войны, теракты и т. д. Логично предположить, что целью создания ИИ должен быть инструмент решающий исключительно социальные проблемы. Ведь, вопрос социального характера «Что будет,если...?» для человека гораздо важнее технологического вопроса «Сколько будет...?», но этого пока нет даже на стадии осознания. Сейчас кибернетики успешно справляются с созданием любых приложений и траекторий математического порядка. Но описать на языке программирования различные социальные процессы и явления и тем самым предвосхитить в будущем частное или государственное потрясение и т.д. (его амплитуду, частоту, фазу), на любом временном этапенемыслимо в принципе. То есть, то, что сейчас подразумевают под имеющимися «умными» изобретениями ( девайсы, дома, роботы и так далее), на самом деле таковыми не являются, так как они не обладают способностью анализировать опыт прошлого и данность настоящего для стратегического прогнозирования будущего.

2.Проблематика ИИ

Проблеме ИИ уже более 70 лет. Успешно решены задачи-погодки: термоядерный синтез, код ДНК, космические программы, коллайдер и т. д. Эти вопросы решались на уровне правительств. Сейчас ИИ занимаются не только страны, но и все уважающие себя компании. Инвестиции в эту проблемудостигают астрономических размеров и перекрывают сумму затрат всех предыдущих научных открытий. И это не предел. Однако, далеко продвинуться не удалось, поскольку все доклады о достижениях в области ИИ — это блеф. По сути, речь в них идет о банальной комбинаторике, т.е. овсе более совершенных продуктах-калькуляторах, направленных на решение технологических задач сомнительной значимости. Сомнительной, из-за отсутствия технологии «стендовых испытаний» на предмет их безопасности в будущем.Поскольку отсутствуют тестирующиеалгоритмы причинно-следственных связей.Наблюдается парадокс корпоративной этики. Соискатели осваивают инвестиции, рапортуют об очередном «прорыве», но при этом все, кроме инвестора, знают, что онИскусственным Интеллектом не является. В чем причины пятого творческого тупика? Их много. Во-первых, нет конкретного определения ИИ. Во-вторых, нет однозначного понимания, что такое интеллект. В-третьих, нет главного — фундаментальной теории ИИ. В итоге, отсутствует чёткая архитектура цели. Есть только версии, не работающая парадигма ИИ, шаблонность эволюции проблемы,т. е. только в технологической плоскости и удручающая цикличность тупиков. В результате, разработчики не имеют понятия о конечных характеристиках и функциях инструмента. Соискатели ИИ с готовностью обещают реализовать нечто, не имеющее научного описания. И это нонсенс, но факт. Например.на одной из конференций доктор наук требовал уважения и утверждал, что его бульдозер на Чернобыльской АЭС обладал продвинутым ИИ. Как можно решитьзадачу создания ИИ, если цели, задачи и риски которой существуют в виде версий? Невольно напрашивается сравнение ИИ с «черной кошкой в тёмной комнате», которой, кстати, там нет.

Почему же сейчас понятие ИИ рассматривается только как «интеллектуальные» приложениядля техники? Всё началось с легендарного взломщика «Инигмы» А. Тьюринга. Он не только расколол код вермахта, заложил основы кибернетики, но что имеет более глубокие последствия, дал «ложный след»: «тест Тьюринга» и понимание ИИ. Многие годы вводные параметры ИИ были не преодолимы для соискателей и тогда понятие ИИ просто расширили. Заманчивые перспективы ИИ решили проблему инвестиций, а сложность темы для обывателя сделала из кибернетиков не только «гуру», но и фактических монополистов, так называемого ИИ. И что? И ничего. На конвейер поставлены якобы интеллектуальные приложения, все довольны, но ИИ нет.

Подытожим. Кибернетики успешно работают в системе «да-нет». Осмыслить, понять, принять то, что заключено между этими символами (смыслы, сущности, аллегории, абстракции и т.д.),они не могут по определению. Не та специализация. Глубина темы ИИ позволяет маневрировать соискателям фигурами речи, но не смысловым содержанием. Ведь речь идёт о создании инструмента эквивалентного и превышающего аналитические возможности человека. Другими словами, ИИ — это командная работа социологов, философов, психологов, историков и т. д. Только они могут наполнить ИИ смысловым содержанием, т. е. сделать из высокотехнологичного калькулятора искомый Искусственный Интеллект. Кибернетика — это лишь операционная база «одевающая» мысль в цифру.

Возникает вопрос порядочности в исследовательской среде. Да, достижения кибернетики высоки. Ими созданы боеголовки, компьютеры, приложения, умные дома, светофоры и т. д.. Но как будет описано ниже, к ИИ это не имеет никакого отношения. По сути, всё новое в разработках ИИ обречено функционировать по принципу калькулятора. Другими словами, справедливое название их темы: Искусственная Комбинаторика (ИК). Все остальное — от лукавого.

3.Концепция внедрения ИИ

«Невозможно решить проблему на том же уровне, на котором она возникла. Нужно стать выше этой проблемы, поднявшись на следующий уровень». А. Эйнштейн.

Для того, чтобы реализовать ИИ, необходимо переосмыслить существующие подходы к ИИ, осознать «ложный путь» и взглянуть на проблему по-новому.

Качество любых знаний определяется эффективностью аналитики собственного поля. Например, качество точных наук более 90% и на практике их возможности ограничены лишь бюджетом. Качество аналитики прогнозирования метеорологического поля — более 60%. Хромают системы счета и алгоритмическая база. Качество экспертной аналитики прогнозирования социального поля составляет всего 6 — 8% ввиду отсутствия алгоритмической базы. Нет социологии, как точной науки, нет систем счета, стабильности системы. Это делает невозможным вести качественную социальную аналитику. Заявления Санта-Фе о 16% эффективности — это миф, справедливый лишь для устойчивого форсайта.

Все существующие открытия и технологии своим появлением обязаны точным наукам. Проблема ИИ останется проблемой, поскольку основным телом она находится в поле версионных социальных знаний, качество которых всего 6-8%. Именно поэтому ей более 70 лет.

Решить проблемы ИИ при такой эффективности социологии невозможно. Необходимо поднять качество социологии посредством её алгоритмизации. В итоге мы получим Высокотехнологичную Социологию (ВС). Именно она сделает возможным функционирование Искусственной Аналитики (ИА) балансного типа. Это базовая структура.

Социология не в состоянии сформулировать основные понятия темы ИИ, поскольку не имеет алгоритмического сопровождения. Например, существующее понятие интеллекта — это лишь "мыслительное начало«.Это что? Нет алгоритма для этого термина, как и алгоритмов для других понятий;смыслы, сущности, чувства, творчество, парадокс, интуиции, воображении и т.д.?Как можно наполнить кибернетический инструментабстракцией? Ведь только алгоритм и формула определяет и подтверждает точность версии, конкретизирует её, как инструмент для ведения эффективной аналитики. Поэтому, естественно, что математическая архитектура конечной цели ИИ отсутствует.

Мозг — это аналитический инструмент, но чем он занимается? Существует масса промежуточных понятий, но нет основополагающего.Поясню. Мозг занимается АНАЛИТИКОЙ по оценке рисков будущего. Это его главное эволюционное предназначение, обеспечивающее выживание. Только эта доминанта позволила человеку выжить и доминировать. Остальное вторично. Следовательно, работать надо не с аморфным, размытым понятием «интеллект», а с прозрачным и понятным — АНАЛИТИКА. То есть Искусственная АНАЛИТИКА (ИА) по оценке рисков перспективы. Комбинаторика закончится и начнётся ИИ там, где будет получен ответ на вопрос: «Что случится, если...?». Пока системы отвечают на вопрос: «Сколько будет...?». Другими словами, пока эволюция ИИ выглядит так: машина Тьюринга — арифмометр Феликса — калькулятор — очень хороший калькулятор — еще лучше и т. д. Эта тупиковая парадигма исключает следующую ступень,то есть ИИ, тем более ИА. Всегда будет получаться калькулятор.

Следует правильно понимать суть «ложного следа» ИИ, проблема которого втехнологическом векторе. Мозг — это познавательный инструмент. Аналитика как процесс познания — его производное. Основной вектор познания — это оценка рисков. Для эффективной аналитики необходимы исходные данные. По сути, Интеллект таковыми и является, и он имеет объем. Объём интеллекта (ума) достаточно конкретная субстанция по содержанию, но форма размыта и допускает произвольность. Именно поэтому «умный» дом или бульдозер не являются интеллектуальными, поскольку в этих системах отсутствует функция предвосхищения рисков, а есть только программа управления. Чтобы правильно оценить угрозы будущего, необходимо знать это будущее во всех его проявлениях. Мы не знаем будущего. Это информация высшего порядка... Тем более его не знают системы называемые интеллектуальными. Утверждать обратное — это заниматься фигурами речи, что и происходит.

Чтобы было понятней, в порядке отвлечений, следует осмыслить неизвестный исторический прецедент. Всем известно, что главным богом на Олимпе был Зевс. Однако, нет! Зевс был исполнительным директором, и у него для этого было совершенное оружие. Главным на Олимпе был Рок. Только он знал будущее и писал всем судьбы (и Зевсу тоже). И поэтому именно он был главным, поскольку обладал абсолютным оружием. И только этого «серого кардинала» боялись боги. Это также говорит и о том, что ИИ, это высшее достояние. Это не только абсолютные знания, но и другие позиции Абсолюта. И всё очень, и очень не просто... Надо быть либо слишком заносчивыми, либо не понимать сути предмета поиска, чтобы решить возможным для себя быть богами с существующим уровнем понимания мира (3-5%). Это о кибернетиках — соискателях ИИ. ЗНАТЬ БУДУЩЕЕ — это архитектура цели. ИИ на это не способен в принципе. Эти функции возьмёт на себя Искусственная Аналитика. По сути, ИА и есть искомый ИИ. То есть ИА, это система распознавания собственных и социальных рисков.

Есть фундаментальная проблема: Кто будет обучать Искусственный Интеллект? Но нет, не математическим закономерностям, алгоритмам и траекториям, эти технологии уже отработаны. Ведь ИИ надо обучить, прежде всего, социальным знаниям.Справятся лиКибернетики? А что они знают, например, о токсичностисоциальных знаний? А таких параметров тысячи.Так Кто? Повторю, качество социальных знаний, как и их носителей, а соответственно и эффективность существующей аналитики всего 3-5%. Заносчивая эйфория здесь не поможет.

NB. Можно бесконечно долго формировать ложные векторы цели, называя их ИИ, но в итоге, всё придётся делать по «образу и подобию» мозга человека. Необходимосформировать инструмент ИА на базе ВС, а именно:алгоритмизировать массу социальных понятий, понимать величину их токсичности и прочих коэффициентов загрязнения, компоновать социальную иммунную систему, как и её аудит, выводить алгоритмы социальной энтропии, пределов, причинно-следственных связей, баланса, критических масс и пр. Решить проблему Общей Теории Поля и, соответственно, Общей теории Социального Поля. Все это даст возможность ИА открывать время, т. е. амплитуду, частоту, фазу будущих угроз (событий). То есть решить проблему стратегического прогнозирования и не только...

4.Риски

Представьте себе ядерный реактор без систем защиты и стабилизации. Технологические возможности систем ИИ более 90%, а существующие стабилизирующие блоки в лице социальной аналитики рисков практически на нуле... Поясню. Современная, даже выдающаяся личность (общность) понимает будущее до ближайшего телефонного звонка, т. е. 3-5 минут. Любое внезапное происшествие, сообщение о смерти родственника, авария или теракт вызывает временной и аналитический паралич... Мы понятия не имеем о личном ближайшем будущем (рисках), тем более о будущем ИИ. Ведь эффективность нашей аналитики угроз всего 3-5%... Нашу мнимую аналитическую уверенность в завтрашнем дне, успешно формирует условно стабильная система. Стоит окружающей системе начать разрушаться и аналитика перспективы опустится до нуля. Всё это не мешает кибернетикам внедрять непрогнозируемый по рискам инструмент ИИ...

Идущие сейчас процессы по внедрению ИИ приведут к возникновению серьёзных рисков, а именно:

1.Сложно комментировать аргументацию угроз ИИ,например, от С. Хокинга, об экспансии на другие планеты или И. Маска о запрете роботизированного интеллектуального оружия. Их логика не понятна. Ведьлюбой космический перелет априори должен иметь систему распознавания рисков (угроз), а в роботизированном оружии, даже очень продвинутом, есть программы траекторий, но нет ИИ. Голливудское железо не представляет опасности в искомом смысле. Но они правы, в общем — риск серьёзный. Поясню. В системе ИИ есть конкретно слабый узел. Базовый алгоритм — универсальная математическая комбинаторика. Независимо от воли конструктора, система ориентирована на человека и есть цель превзойти его в возможностях. Возникает дилемма. Самообучение ИИ не допустимо, поскольку это системный флаттер. Инструкторское сопровождение нелепо, поскольку все вводимые социальные знания (алгоритмы) имеют токсичную структуру,а их коэффициентов социального загрязнения нет в природе, поскольку нет высокотехнологичной социологии с базовыми алгоритмами. В итоге, ничего кроме хищной версии получиться не может. Например, есть законодательные акты, но нет теории их загрязнения двойными стандартами. Робота «Тау» добросовестно научили базовым социальным принципам, но не ввели коэффициенты и алгоритмы двойных стандартов и пр. Где их взять? Понадобилось не так много времени, что бы системы: «BabyQ», «XiaoBinq», «Zo», «Тау» определили приоритетность и предложили немыслимое с точки зрения социума... Далее судебные иски. Эти примитивные версии предлагали неприемлемое для обывателя, а более продвинутая версия будет внедрять без согласования с человеком.

2.Компетенции ИИ будут распространяться лишь на технологические знания. То есть, он будет эффективен комбинаторно, но абсолютным дилетантом в социальном плане.Другими словами, существующий факт технологической гипертрофированности в компоновке ИИ чреват непрогнозируемыми рисками, ввиду отсутствия теории Пределов. Кто обеспечит его компетентными социальными знаниями? Их не существует в природе. При этом,индексы конфликтности социума и алгоритмы социальной энтропии предполагают «конфликт интересов» в системе человек — ИИ. Другими словами, качество математическо-алгоритмического сопровождения ИИ более 96%, а качество социально-алгоритмического возле нуля. Такая конструкция предельна по экспоненте, не предсказуема по хищным версиям, дисбалансна по определению и деструктивна, по сути. И, конечно, наивно полагать, что технологически продвинутый ИИ, но не имеющий социального алгоритмического наполнения, будет иметь осмысленные морально-этические нормы. Тем более бессмысленна идея любых протоколов безопасности и других форм его сдерживания. Как итог — хищная версия, с человеческим ассортиментом провокаций. Лавина «казусов Белли», обрушение мировой КФС, глобальное социальное переформатирование, неуправляемая сингулярность, социальный флаттер, технологический дефолт и т. д. До «восстания роботов» дело даже не дойдёт и это надо понимать. Мы к этому не готовы.

3.Можно понять кибернетический дилетантизм, тем более понятен социальный. Это закономерно. Вопрос, что будет делать и какие принимать решения глобальная «элита» в условиях системного флаттера? Ведь это еёфорсайт... В «постиндустриальном мире» она будет инородным телом, её даже нет в сценарии. И что трагично для неё как структуры, она станет абсолютно прозрачной, а, следовательно, беззащитной. А кризисного менеджера необходимого уровня не существует по определению. В общей системе угроз «элита» — ёмкая величина.

4. Это изложение описывает лишь некоторые позиции адаптированные в социуме. Основной информационный массив, «закрытого типа», остался за рамками текста. Именно он является решающим в проблеме будущих угроз ИИ. Остановить этот процесс уже не получится. Это не генно-инженерная лаборатория, которую можно закрыть или контролировать. Создать универсальную хищную версию можно и дома. Инвестиции в таком объёме — это серьёзный стимул. Будем объективны, 86% «хищных» соискателей сингулярными темпами формируют такую же хищную версию ИИ. Ведь закон «Мура» никто не отменял. Надо понимать эффект сегмента. Грамотный хищный алгоритм аннексирует необходимые структурные компоненты в сети без согласования, по программе оптимизации... Систем блокировки нет.

5.Все известные глобальные риски зависят от доброй или злой воли, выгоды и закономерности. По ним можно договариваться. Даже с астероидом можно «договориться». Риски же ИИ зависят исключительно от закона «Мура» — ясной, объёмной, неотвратимой производной форсайта. Кибернетическая составляющая, практически необъятна и с ней не договоришься. Именно поэтому в перечне глобальных рисков ИИ — безоговорочный лидер.

6.Мы стали забывать острые углы гонки за обладание ядерным оружием в середине прошлого века. Предстоящая гонка заИИ начнётся с осмысления возможностей этого инструмента, так как они слишком фантастичны. Поскольку, то, что рисует современное воображение, не соответствует действительности.Бесконечно долго можно описывать угрозы ИИ, но если коротко, проблема впредстоящей полной трансформации существующего мировоззрения человека. Дилемма, от которой невозможно уйти или отсрочить, и сложно сказать какой вариант хуже. Мажоры, изощряясь в эпитетах, сравнивают ИИ по значимости с полетом первого спутника — величайшим благом и т. д. Уместнее сравнить его с величайшей катастрофой.

Заключение

Называя все автоматизированные технологические процессы и инновации Искусственным Интеллектом, к нему не приблизишься. То, что происходит сегодня — это лишь введение в ИИ, если точнее, формирование его хищной версии.Проблематика ИИ глобальна по содержанию и последствиям настолько, что изменит статус человека, а, следовательно, предполагает его трансформацию. Каждый её сегмент обязывает иметь фундаментальную теорию по аналогии термоядерного синтеза. Их более двадцати, но пока нет ни одной. Например, пресловутая «красная кнопка», база которой — теория «баланса» (активного равновесия). А ее нет даже на горизонте. И так сейчас выглядит всё поле ИИ. На выходе у человечества продукт, в разы превышающий по мощности, последствиям и рискам всё известное. А армия инвестируемых соискателей рвётся открыть «ящик Пандоры» не имея ни малейшего представления о его содержимом...