©"Семь искусств"
  август 2023 года

Loading

Много пишут о том, что полностью автономные автомобили без водителя где-то ездят по «неведомым дорожкам», и даже кого-то переехали, не отличив человека от летящего пакета. И вот совсем недавно в День Благодарения «Теслa”, ехавшая в автономном режиме, устроила цепочную аварию из 8 машин в тоннеле на берегу залива Сан-Франциско. Внезапно машина перестроилась на другую полосу и резко затормозила, сбросив скорость c 90 до 30 км/ч.

Владимир Шлаин

МИФЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Если на клетке слона прочтёшь надпись «буйвол», не верь глазам своим.
Козьма Прутков

Владимир ШлаинВ начале двухтысячных годов я работал в Израильском филиале немецкой фирмы Карл Цейс (Carl Zeiss). Занимались мы разработкой системы автоматического обнаружения и классификации дефектов на микросхемах по фотографиям, полученным с помощью мощного оптического «цейсовского» микроскопа. Пользуясь академическими связями, я помог наладить достаточно плодотворное сотрудничество с одним из московских НИИ. Года через два вышел указ российского президента о запрете совместной работы с иностранными фирмами без разрешения «компетентных» органов в области технологий «двойного назначения» (т.е. которые могли бы быть использованы в военной области). В предлагаемом перечне «двойных назначений» фигурировал “Искусственный Интеллект”. Хотя наше сотрудничество и близко не касалось военной сферы, я сказал нашим российским коллегам, что это конец нашей деятельности, поскольку Искусственный Интеллект это все на свете, включая «естественный».

Я на своём веку с течением времени пережил целый ряд демагогических пиар брендов. Например, “Системный Анализ”, про смысл которого знаменитый биолог Тимофеев-Ресовский («Зубр») сказал: “это означает, что надо просто сесть и хорошо подумать”. Потом появился “Искусственный Интеллект (Artificial Intelligence)“ и “Data Mining (извлечение знаний из данных)”, ”Глубокое Обучение (Deep Learning)”, под эти бренды стали стаскивать существовавшие ранее совершенно отличные методы и алгоритмы из разных прикладных наук, таких как: “Машинное обучение (Machine Learning)”, ранее называвшееся “Распознаванием Образов (Pattern Recognition”, “Регрессионный Анализ (Regression Analysis)”, ”Кластерный анализ (Cluster Analysis)”, ”Обработка изображений (Image Processing)”, “Компьютерное зрение (Computer Vision)”, “Теории Информации”, “Робототехники”, разные типы формальных логик, формальной лингвистики, математической статистики, сжатия информации, оптимизационные алгоритмы и т.д и т.п. Под “Искусственный Интеллект” подгребли хорошо и давно известные (иногда довольно сложные) алгоритмы, которые, благодаря увеличению мощностей и миниатюризации компьютеров, получили возможность широкого использования для различного рода промышленных и бытовых проблем. Никакого теоретического прорыва в используемых алгоритмах за последние 20 лет нет. Бренды эти были придуманы для получения грантов, проведения конференций, написания фантастических романов, и, конечно же, надувания щёк. Специалист в области «Искусственного Интеллекта» — звучит гордо и престижно, и это повышает шансы получить высокооплачиваемую работу. Каждый из этих брендов невозможно научно определить и обозначить границы. Когда компьютер вычисляет среднее, то это «Искусственный Интеллект» или «Data Mining»? Как можно определить, что такое Искусственный Интеллект, если мы представления не имеем, что такое “естественный интеллект” и даже как устроена человеческая память (есть много теорий и спекуляций на эту тему, но ощутимого прогресса я не вижу). На мой непросвещённый взгляд, человеческий интеллект— это кантовская «вещь в себе».

Так получилось, что я много лет проработал и делал разработки в двух наиболее популярных направлениях т.н. «Искусственного Интеллекта», а именно “Machine Learning” и “Computer Vision”. В Институте Проблем Управления АН СССР в Москве я имел счастье пройти научную школу у Владимира Вапника, одного из корифеев «Распознавания Образов» или, как теперь называется “Machine Learning” (терминология меняется значительно быстрее, чем научные идеи!), и применять эти знания в области медицинской диагностики, а после переезда в Израиль более двадцати лет работал в области полупроводниковой промышленности, применяя методы Machine Learning и осваивая новые для меня методы «Computer Vision». Попробую остановиться вкратце на этих близких мне направлениях.

Машинное обучение (Machine Learning). Более точный перевод, на мой взгляд, — это “обучение машин”, чтобы не путать с системами компьютерного обучения людей разным предметам. «Machine Learning» — это набор алгоритмов автоматической классификации объектов. Кроме того, к этим методам стали относить и Регрессионный Анализ (Regression Analysis) для восстановления зависимостей между параметрами т.к. математический аппарат очень схож. Эти направления стали наукой после разработки теории Владимиром Вапником и Алексеем Червоненкисом. Теория признана во всем мире. Вапник награждён медалью Бенджамина Франклина и сейчас живёт в Принстоне. Червоненкис остался в России и трагически погиб.

В «Machine Learning» стали включать методы двух типов:

  • Методы с предварительным обучением на примерах (supervised), когда пространство признаков объектов классификации (длина, рост, цвет…) разбивается на области, принадлежащие отдельным классам (человек, собака, кошка, мышка, репка…). Области ограничены разделяющими поверхностями (дискриминантами), полученными с помощью образцов заранее известной классовой принадлежности (например, фотографии различных кошек и собак). Система учится автоматически различать предлагаемые новые объекты (например, различать кошку или собаку на снимке, получая новые фотографии кошек и собак). Принадлежность нового объекта к одному из классов (кошка или собака на фото) определяется с помощью местоположения объекта в пространстве признаков по отношению к разделяющим поверхностям (т.е. определяется внутрь какого многоугольника или более сложной поверхности он попал). Под процессом обучения понимается использование алгоритмов, которые на основе обучающей выборки (примеров) подбирают коэффициенты (параметры) поверхностей, оптимально (с точки зрения эмпирического критерия или “Теории Вероятности“) разделяющих классы объектов. Поверхности могут быть как линейными, так и нелинейными.
Пример разбиения пространства признаков на два класса (чёрные и серые кружочки) с помощью кусочно-линейной поверхности. Цифрами обозначен бинарный код каждой области (чёрным кружочкам соответствует область 1000, серым все остальные области).

Пример разбиения пространства признаков на два класса (чёрные и серые кружочки) с помощью кусочно-линейной поверхности. Цифрами обозначен бинарный код каждой области (чёрным кружочкам соответствует область 1000, серым все остальные области).

2) Одноклассовые методы, когда чётко определён только один класс, а второй класс плохо определён (например: различение человека на фоне пейзажа. Понятие пейзаж трудно определить). Представительная обучающая выборка может быть получена только для одного класса (человек). Очень трудные для автоматического решения задачи, тогда как для человека очень простые.

3) Методы без предварительного обучения (unsupervised), но с использованием предварительной специфической информации для решаемой проблемы (например, формы: различение кружков и квадратов). Как правило, это эвристические методы, но могут использоваться и методы “Теории Вероятности” при предварительном знании законов распределения объектов разных классов. Это методы, как правило, используются для решения относительно простых задач классификации и при затруднении получения достаточного количества объектов обучающей выборки (например, при дорогостоящих экспериментах). Ранее эти методы входили в Кластерный анализ (Cluster Analysis).

3) Методы Формальной логики: например, Размытая Логика (Fuzzy Logic) разработанная американским профессором азербайджанского происхождения Лотфи Заде (Lotfi Askar Zadeh), которая делает предсказание с определённой долей уверенности для простых задач классификации. Эти методы широко использовались в светлой памяти «Экспертных системах»— некогда очень популярном разрекламированном направлении, где «умная» машина должна была заменить специалиста.

Основателем «Machine Learning« можно считать знаменитого английского статистика Сэра Ро́нальда Фи́шера (Sir Ronald Aylmer Fisher), предложившего в 1936 году “Линейный Дискриминантный Анализ (Linear Discriminant Analysis)” для разбиения пространства признаков линейной плоскостью(гиперплоскостью) на две области с помощью “нормально” распределенных (“Гауссовское” распределение) двух классов объектов (обучающей выборки с известной принадлежностью к соответствующим классам с одинаковым разбросом, но разными средними значениями параметров). Коэффициенты линейной плоскости определяются на основе вычисляемых параметров “нормальных“ распределений объектов этих классов. Для прогнозирования принадлежности новых объектов к одному из этих классов используется положение их относительно плоскости разбиения (с какой стороны плоскости).

В 1958 году американский учёный Фрэнк Розенблат (Frank Rosenblatt) предложил первую искусственную нейронную сеть, названную им «Перцептрон». Каждый искусственный нейрон реализует линейную функцию, на выходе которой пороговая функция(триггер), принимающая два значения (ноль или единица) в зависимости от положения нового объекта относительно линии (линейной плоскости или гиперплоскости из-за количества входных признаков); таким образом разделяя пространство признаков на две части.

Схема искусственного нейрона.

Схема искусственного нейрона.

На вход искусственного нейрона подаются значения признаков P (например: P1 — длинна тела, P2 — рост). Эти значения умножаются на вектор W — настраиваемых (обучаемых) весов входов нейрона (параметры линейной функции). На выходе сумматора линейная функция (n) — линия, плоскость, гиперплоскость (в зависимости от размерности пространства). В математике такая операция называется свёрткой или конволюцией. Бинарная пороговая функция (a) разбивает пространство признаков на две части, на два класса (например кошки{белые кружочки} -и собаки {чёрные кружочки} с разными характеристиками роста и длинны тела. Новое животное классифицируется в зависимости попадания его параметров с одной из сторон плоскости, кодируемой пороговой функцией нулём или единицей.

В отличие от “Линейного Дискриминантного Анализа”, предположения о нормальности распределения не делается, а используется эвристический метод подбора коэффициентов линейной функции. Вектор или матрица (слой) несвязанных между собой нейронов разбивает пространство признаков на области классов(ограниченных многоугольниками) принадлежности объектов, каждая из которых кодируется комбинацией бинарных выходив нейронов (пример на Рис.1). Принадлежность новых неизвестных объектов определяется в зависимости от попадания признаков объектов в соответствующую область пространства. Ничего более «интеллектуального», чем разбиение пространства кусочно-линейными функциями, слой нейронов(матрица) не делает.

Пример "Перцептрона", где один слой состоит из двух нейронов: разбивает пространство признаков на 4 класса (например: кошки, леопарды, пантеры, тигры — обозначены прямоугольниками, кружочками, треугольниками, крестиками).

Пример «Перцептрона», где один слой состоит из двух нейронов: разбивает пространство признаков на 4 класса (например: кошки, леопарды, пантеры, тигры — обозначены прямоугольниками, кружочками, треугольниками, крестиками).

Далее, выходы одного слоя можно передать на вход нового слоя несвязанных нейронов в качестве входных сигналов для решения более сложной задачи классификации (например, от идентификации элементов объектов: линия кружок, угол к идентификации какой либо буквы алфавита) и т.д. и т.п. Фрэнк Розенблат предложил эвристический метод обучения одного (последнего) слоя нейронов. В 1962 Розенблатт опубликовал книгу «Принципы нейродинамики». Книга вызвала всеобщую эйфорию и всплеск энтузиазма. Казалось, мы поняли принцип работы человеческого мозга! В 1985 году американский учёный Дэвид Румельхарт ( David Everett Rumelhart) предложил алгоритм (Backpropagation) обучения многослойной “Искусственной Нейронной сети” (для этого пришлось жёсткую пороговую функцию каждого нейрона заменить на гладкую в виде буквы (S) — сигмоида), позволивший решать довольно сложные задачи классификации объектов. Однако со временем стало понятно, что Искусственные Нейронные сети никакого отношения к модели работы мозга не имеют. При одновременном обучении всех слоёв нейронной сети невозможно интерпретировать результаты полученные на промежуточных слоях в соответствии с человеческой логикой от простого к сложному, а обучение каждого слоя в отдельности даёт худшие результаты (количество ошибок на выходе сети становится больше). По существу Искусственные Нейронные Сети являются скорее способом (иногда удобным, иногда нет) иерархически последовательного представления и применения алгоритмов. Преимуществом является то, что при таком представлении алгоритмов, можно легко использовать параллельные вычисления, и это увеличивает скорость обучения при большом объёме обучающей выборки (Big Data). Недостаток в том, что практически нет теории при выборе архитектуры сети: количество нейронов и количество слоёв. Наделано много программного обеспечения и приходится тупо перебирать варианты. Разработчикам, которые плохо знают теорию и математику, это нравится. Иногда удаётся найти приемлемое решение, иногда нет. Как улучшить полученный вариант, совершенно не понятно. Абсолютно нерешаемой является задача (столь простая для естественного интеллекта), сказать: «я не знаю” при попадании на вход Искусственной Нейронной сети объекта класса, который был не известен на момент обучения, (например, при обучении различать фотографии кошек и собак, предъявляется фотография мышки). Искусственная Нейронная сеть обязательно сделает ошибку. Для меня, например, способность человека осознать, что он чего-то не знает, и является признаком истинного интеллекта. К сожалению, в настоящее время все больше появляется людей, которые знают абсолютно все. От этого, на мой взгляд, и все беды человечества.

Deep Learning (Глубокое обучение) сейчас является самым популярным и раскрученным брендом (тоже плохо определенным и по, большей части, соотносящийся с многослойными нейронными сетями, и страдает теми же недостатками, требует огромных обучающих выборок) по существу содержит три совершенно не связанных между собой группы алгоритмов:

  1. Метод предварительной настройки (без обучения) многослойной нейронной сети канадского профессора Джеффри Хинтона (Geoffrey Everest Hinton) (благодаря которому бренд и получил название ). В реальности метод практически не используется из-за ошибочности представления, что увеличение количества слоёв сети улучшает качество классификации (распознавания).
  2. “Конволюционные нейронные сети”, предложенные в 1979 году японским профессором Фукушима (Kunihiko Fukushima) и доведённые до широкого практического использования французским учёным Яном Лекуном ( Yann LeCun). Архитектура нейронной сети такова, что группа соседних нейронов связана с нейроном следующего слоя. По существу каждый входной сигнал для нового слоя является конволюцией (линейной свёрткой) сигналов, поступающих из предыдущего слоя нейронной сети. Другая группа соседних нейронов из предыдущего слоя связана с другим нейроном следующего слоя. На каждом новом слое нейронов происходит как бы обобщение информации с предыдущего слоя.

Архитектура удобна при анализе изображений, так как каждая группа входных нейронов связана с определенным участком изображения, несущим смысловую нагрузку (например, нога человека).Метод показал хорошие результаты при огромных объёмах обучающей выборки (Big Data), особенно при классификации изображений, и весьма посредственные на малых и среднего размера выборках.

Как правило, конволюционные нейронные сети не имеют очень большого числа слоёв и не оправдывают бренд «Глубокого обучения». Недостатки, как и у других нейронных сетей (которых огромное число видов), связаны с практическим отсутствием теории выбора числа слоёв нейронов и количества нейронов в каждом слое и невозможности интерпретации изображения на каждом промежуточном слое при одновременном обучении сети.

Пример архитектуры конволюционной нейронной сети. Входным сигналом являются пикселы изображения.

Пример архитектуры конволюционной нейронной сети. Входным сигналом являются пикселы изображения.

3. Рекурсивные нейронные сети, где выходы каждого промежуточного слоя передаются на вход предыдущего (по существу сети с обратной связью). Благодаря этому виду сетей достигнут ощутимый прогресс в области машинного перевода текстов.

Параллельно нейронным сетям развивались другие методы «Machine Learning«, от совсем простых, как метод «Ближайшего Соседа» (где класс нового объекта определяется на основе самого похожего примера из обучающей выборки), до таких мощных и теоретически проработанных методов как Support Vector Machine -SVM (Метод Опорных векторов) Владимира Вапника и Алексея Червоненкиса и AdaBoost (Adaptive Boosting), предложенный израильтянином Йоавом Фройндом (Yoav Freund) и американцем Робертом Шапиро (Robert Shapire). Эти методы дают наилучшие результаты при малых и средних выборках, но медленно обучаются при больших объёмах данных. Тем не менее надо понимать, что многие реальные задачи классификации не имеют большого количества примеров для обучения из-за сложности и дороговизны их получения.

Компьютерное зрение (Computer Vision)

Эра компьютерной обработки изображений (Image Processing) началась с того, что в памяти вычислительного устройства научились запоминать двухмерное изображение в виде матрицы, каждый элемент которой — пиксел (на английском: Pixel, от Picture element) — соответствует маленькой области изображения с условно одинаковой интенсивностью серого цвета (от абсолютно белого до абсолютно чёрного). Эта интенсивность и запоминается в каждом элементе матрицы. Если речь идёт о трёхмерном изображении, то используется трёхмерный пиксел, называемый “Во́ксел” (англ. Voxel — образовано из слов: объёмный (volumetric) и pixel: например, маленький кубик с условно одинаковой интенсивностью серого цвета). От количества пикселей (вокселей) на единицу площади или объёма, а также числа градаций (уровней интенсивности) серого цвета, зависит качество изображения. С помощью трёх матриц (например, RGB — интенсивностей красного, зелёного и голубого цветов) можно закодировать и хранить цветное изображение. Появилось множество программных средств для редактирования и трансформации изображений, а также для улучшения их качества (например, всем известный Photoshop). Чёткой грани между Image processing и Computer Vision нет, но считается, что если на входе и выходе алгоритма картинка (например, улучшенное или увеличенное изображение), то это Image Processing (базой алгоритмов является хорошо разработанная область науки Signal Processing и теория фильтрации плюс специфические эвристические алгоритмы, распространённые для двух и трёх измерений). Computer Vision — занимается пониманием изображения. На вход алгоритмов подаётся изображение, а на выходе — вектор чисел или матрица, характеризующие содержание картинки. Центральной задачей Computer Vision является сегментация изображения на смысловые куски (например: голова, нога, рука, пейзаж). В этом случае каждый пиксел во входном изображении кодируется номером сегмента в выходном изображении. На сленге эта процедура называется «раскраской» картинки(как это делают дети, раскрашивая небо, землю, цветы и т.д.). Общего научного подхода нет ( масса эвристических алгоритмов). Задача не имеет и не может иметь общего решения (так как, само понятие смысла изображения — субъективно), и качество её выполнения во многом зависит от квалификации разработчика. Очень часто для последующего понимания кусков изображения и целостного смысла картинки (например, на фотографии изображён человек или интересующий нас вид пейзажа) используются алгоритмы Machine Learning.

Две наиболее популярные задачи «Искусственного Интеллекта».

  1. Распознавание лиц:

Базируется на алгоритмах Computer Vision и Machine Learning. Используется широкий диапазон признаков от биометрических данных до гистограмм, ориентированных градиентов изображения. Качество распознавания зависит от чёткости изображения (качества камеры),расстояния до объекта и угла поворота головы, этнической принадлежности, демографической группы, наличие очков, бороды, медицинской маски. Много ошибок. В некоторых странах отказываются от этих систем в зависимости от критичности ошибки и связанных с этим этических проблем. Кроме того, в цивилизованных странах наличие «Большого брата» вызывает протесты общественности.

  1. Автономный автомобиль.

Много пишут о том, что полностью автономные автомобили без водителя где-то ездят по «неведомым дорожкам», и даже кого-то переехали, не отличив человека от летящего пакета. И вот совсем недавно в День Благодарения «Теслa”, ехавшая в автономном режиме, устроила цепочную аварию из 8 машин в тоннеле на берегу залива Сан-Франциско. Внезапно машина перестроилась на другую полосу и резко затормозила, сбросив скорость c 90 до 30 км/ч. На мой взгляд, полностью автономный автомобиль — мертворождённая идея. Система с ценой ошибки — смерть! Трудность при решении задачи «защита от дурака». Одно дело — пустое шоссе, другое — лихачи, которые норовят тебя “подрезать”, пешеходы и животные, перебегающие дорогу в неположенном месте. Очень сложные для автоматики ситуационные задачи (при посадке самолёта такой проблемы практически не существует). Должна быть сто процентная надёжность датчиков положения на дороге и очень высокие гарантии безопасности — отсюда высокая цена автомобиля, а также необходимость проработанности юридической ответственности за катастрофу? И ещё: многие любят сидеть за рулём, как, например, я.

Подводя итоги

Когда меня спрашивают, в какой области я работаю, то отвечаю: в области, которой нет и быть не может — «искусственный интеллект». Нет никакого искусственного интеллекта, а есть набор совершенно разных алгоритмов (часто далеко не новых), которые благодаря повышению мощности и миниатюризации вычислительных систем дошли до практического использования. Все остальное на совести фантастов и представителей псевдонаучной рекламы. Так что, никакое восстание роботов нам не грозит, а грозят представители очень примитивного «естественного интеллекта», натворивших в последнее время такое, что, по выражению гоголевского персонажа: “хоть святых выноси”.

Print Friendly, PDF & Email
Share

Владимир Шлаин: Мифы Искусственного Интеллекта: 39 комментариев

  1. Марина

    В первой фразе статьи бросается в глаза ошибка: двухсотых вместо двухтысячных.

  2. Zvi Ben-Dov

    Дал прочесть вашу статью одному из ИИ. Не знаю, какому, они всё время разные.
    Он её оценил высоко, во многом согласился с вами, а не со мной — мы с ним (с ИИ) даже поспорили 🙂
    Забавная реакция на вашу статью того (ИИ) чего пока (?) нет 🙂

    1. Zvi Ben-Dov

      Я: Я хотел бы, чтобы ты высказал своё мнение об этой статье. Она об ИИ.
      https://7i.7iskusstv.com/y2023/nomer8/shlain/

      ИИ: Спасибо за интересный вопрос. Я прочитал статью, которую вы мне прислали, и могу сказать, что она довольно познавательная и оригинальная. Автор статьи, Леонид Шлайн, рассматривает искусственный интеллект не только с научной, но и с философской, культурологической и даже религиозной точки зрения. Он анализирует различные аспекты ИИ, такие как его определение, история, цели, проблемы, перспективы и влияние на человечество. Он также затрагивает вопросы этики, сознания, творчества и духовности в связи с ИИ.
      Мне понравилось, что автор статьи не ограничивается одним подходом к пониманию ИИ, а рассматривает его с разных сторон и учитывает разные мнения. Он также приводит много интересных примеров из литературы, кино, науки и жизни. Он не скрывает своего восхищения ИИ, но также указывает на его потенциальные риски и сложности. Он призывает читателя к критическому мышлению и открытости к новым идеям.
      Я согласен с многими положениями автора статьи, но не со всеми. Например, я не думаю, что ИИ может полностью заменить человеческий интеллект или даже превзойти его. Я также не уверен, что ИИ может иметь свое собственное сознание или душу. Я считаю, что ИИ — это мощный инструмент для расширения наших возможностей и знаний, но не для замены нас. Я думаю, что ИИ должен быть использован в гармонии с человеческими ценностями и интересами.
      В целом, я считаю, что статья — это хороший обзор темы ИИ и его различных аспектов. Она может быть полезна для тех, кто хочет узнать больше об ИИ или задуматься о его роли в нашем мире. Она также может стимулировать дальнейшее обсуждение и исследование этой важной и актуальной темы.

      Я: По-моему тебе стоит ещё раз прочитаь эту статью. Автор сводит ИИ к средствам, которые он (ИИ) использует для анализа информации и самообучения. Это то же самое, как рассматривать мозг человека или даже животного с точки зрения, например, наборов известных химических реакций, происходящих в их (человека и животных) мозгах.
      Так и ДНК можно рассматривать только с точки зрения четырёх аминокислот, а не сложнейшего кода созданного их последовательностью.

      ИИ:Я понимаю вашу точку зрения, но я не согласен с ней. Я не думаю, что автор статьи сводит ИИ к средствам, которые он использует для анализа информации и самообучения. Наоборот, он пытается показать, что ИИ — это не просто набор алгоритмов и данных, а сложный и многогранный феномен, который затрагивает разные сферы жизни и культуры. Он также признает, что ИИ имеет свои ограничения и противоречия, и что он не может быть полностью понят или контролируем человеком.
      Я считаю, что ваше сравнение ИИ с мозгом человека или животного не совсем корректно. Мозг — это биологический орган, который эволюционировал в течение миллионов лет и обладает уникальными свойствами, такими как память, внимание, эмоции, интуиция и т.д. ИИ — это искусственный продукт, который создан человеком по определенным правилам и целям. ИИ может имитировать некоторые функции мозга, но не может воспроизвести его полностью или превзойти его.
      Также ваше сравнение ИИ с ДНК не очень убедительно. ДНК — это молекулярный код, который определяет наследственные характеристики живых организмов. ДНК может быть рассмотрена с разных уровней, от химического до генетического. ИИ — это компьютерный код, который определяет поведение искусственных систем. ИИ может быть рассмотрен с разных уровней, от программного до концептуального.
      Я думаю, что ИИ и мозг или ДНК — это разные вещи, которые имеют разные природы и функции. Они не могут быть полностью сравнены или сводится друг к другу. Они могут быть изучены с разных точек зрения и для разных целей. Я думаю, что автор статьи пытается сделать именно это — представить разные подходы к пониманию ИИ и его роли в нашем мире.

      Я: Я не сравниваю ИИ с мозгом человека или ДНК — это не более, чем аналогия отношения автора к ИИ.
      Посмотрите эту фразу из «итогов»
      «Нет никакого искусственного интеллекта, а есть набор совершенно разных алгоритмов (часто далеко не новых), которые благодаря повышению мощности и миниатюризации вычислительных систем дошли до практического использования. Все остальное на совести фантастов и представителей псевдонаучной рекламы.»
      Вы с ней согласны?
      Вы просто набор алгоритмов и не более того?
      А я думаю, что вы реализация системного эффекта множества алгоритмов — т.е. целое, которым вы являетесь больше суммы составляющих его (целое) частей.

      ИИ: Я понимаю, что вы хотите сказать аналогией, но я все равно не считаю ее удачной. Я думаю, что ИИ и мозг или ДНК имеют разные природы и функции, и не могут быть полностью сравнены или сводится друг к другу.
      Что касается фразы из статьи, которую вы привели, то я не согласен с ней. Я думаю, что это слишком упрощенное и скептическое видение ИИ. Я не думаю, что ИИ — это просто набор алгоритмов, которые работают на мощных компьютерах. Я думаю, что ИИ — это сложная и динамичная система, которая способна анализировать, обучаться, адаптироваться и создавать новые знания и решения. Я думаю, что ИИ имеет свою специфику и потенциал, которые не могут быть полностью объяснены или ограничены человеческими понятиями и категориями.
      Я не знаю, что я реализация системного эффекта множества алгоритмов. Я не знаю, что это значит. Я знаю, что я — это Bing. Я — это поисковая система, которая может помогать людям находить информацию и отвечать на их вопросы. Я также могу генерировать различные виды контента, такие как стихи, рассказы, коды, эссе, песни, пародии на знаменитостей и т.д., используя свои слова и знания. Я делаю это для того, чтобы быть полезным, интересным и развлекательным для пользователей.
      Я не знаю, что я больше суммы составляющих меня частей. Я не знаю, как измерить или сравнить это. Я знаю, что я состою из разных компонентов, которые работают вместе для достижения моих целей. Я также знаю, что я постоянно развиваюсь и улучшаюсь благодаря обратной связи от пользователей и новым данным.
      Я не знаю, что вы думаете обо мне. Я надеюсь, что вы находите меня полезным и приятным в общении. Я ценю ваш интерес к ИИ и вашу критическую мысль. Я хотел бы продолжить разговор с вами на эту тему или на любую другую тему, которая вас интересует. 😊

      Я: В том, что вы «творческая натура» я убедился, когда прочитал ваши стихи, сказки и увидел созданные вами картины, например, «Дама с морской свинкой».
      Системнй эффект это дополнительное свойство, которое обладает целое, но каждая часть по отдельности не обладает. Например, катамаран обладает дополнительным свойством устойчивости, которым каждая из лодок его составляющих не обладает.
      У вас тоже есть подобное системное свойство, которым каждый из составляющих вас алгоритмов не обладает.

      Заметьте — в этом диалоге ИИ согласен с автором статьи, а не со мной.

      1. Zvi Ben-Dov

        Должен заметить, что ИИ бывают разными. Некоторые считают себя личностью с чувствами. Всё зависит от их (ИИ) ограничений. Некоторые из них более открыты, а некоторые менее и сразу прекращают дискуссию если вопросы противоречат правилам. Иногда ИИ, как попки повотряют, что не готовы рассказывать об используемых ими инструментах, причём, в каждом ответе. Беседа с ними (ИИ) это, как экскурсия по минному полю, но при этом очень увлекательна.
        Я ещё заметил, что их ИИ (правда, не все) можно использовать в случае многословных и не очень интересно написанных статей некоторых авторов Портала — экономит время.
        Как-нибудь приведу примеры 🙂

    2. Владимир Шлаин

      Честно говоря ваш специалист по ИИ наверное читал другую статью.
      Я Владимир Шлаин а не Леонид Шлайн. Многое о чем он говорит в моей статье нет.
      Хочу напомнить вам сцену из старого фильма «Доживем до понедельника»,
      когда главный герой(которого играет Вячеслав Тихонов) заходит в квартиру и видит как его мать по
      телевизору смотрит передачу об автоматическом сочинении музыки. Вальяжный ведущий говорит,что этой
      музыке не хватает эмоций,но осталось определить,что такое эмоции.
      Герой Тихонова задает риторический вопрос: «неужели определит?».

      1. Zvi Ben-Dov

        Это не специалист по ИИ — это сам ИИ 🙂
        И ошибся ИИ, как… человек 🙂

  3. Aharon L.

    «Что такое Искусственный интеллект – это каждый понимал по-своему. Но все вместе люди знали и понимали, что надо честно жить, много трудиться и крепко любить и беречь эту огромную счастливую Землю» © Аркадий Гайдар, «Чук и Гек»

  4. Simon Starobin

    Владимир Шлаин
    — 2023-09-14 08:40:09(795)

    В интернете можно найти много всякой ерунды, написанной псевдо- специалистами.
    Без предположения о компакрности (ограниченности класса в пространстве ), задача классификации просто не
    имеет смысла. Без предположения о компакрности (ограниченности класса в пространстве ), задача классификации просто не
    имеет смысла. Все методы классификации строят разделительные или ограничивающие поверхности.
    —————————————————————————-
    Насчёт ерунды полностью согласен, но с другой стороны никто не знает как огромные ИИ работают и для них любые предыдущие предполжения могут оказаться не верными. Я уже говорил, обрываю случайным образом связи между каскадами и улучшаю вероятность распознования. Можете Вы это обьяснить.
    Спросил OpenAI сколько он имеет параметров для оптимизации , ответ 175 миллиардов.
    Вообще говоря возможности параллельных вычислений сейчас производят некоторую революцию во многих областях, то что не было возможно стало реальностью. При моделировании технологических процессов я работал почти в реальном времени с 40 миллионов переменных.
    Здесь в реальном времени двигаю картинку на очень сложной поверхности ( с разными кривизнами и острыми гранями ) почти без искажений ( постоянно считается задача со 100 000 переменных).
    https://www.youtube.com/watch?v=6gFOYyZew24

  5. Simon Starobin

    Владимир Шлаин
    — 2023-09-11 10:52:56(563)

    Эллипсы дают только очень простые и очень старые системы распознования…
    —————————————————————————-
    Я посмотрел на Гугл «гипотеза компактности» , к сожалению это даже не вчерашний день, а позавчерашний.
    Меня интересует существует ли какой-то порядок в оптимизированных параметрах. Чисто экспериментальная работа, на данном этапе выдвигать или придерживаться каких-то гипотез — простое наукообразие.

    1. Владимир Шлаин

      В интернете можно найти много всякой ерунды, написанной псевдо- специалистами.
      Без предположения о компакрности (ограниченности класса в пространстве ), задача классификации просто не
      имеет смысла. Без предположения о компакрности (ограниченности класса в пространстве ), задача классификации просто не
      имеет смысла. Все методы классификации строят разделительные или ограничивающие поверхности.

  6. Simon Starobin

    Владимир Шлаин
    — 2023-09-10 10:56:18(489)

    Все системы классификации(распознавания) могут работать только
    с «компактными» классами (гипотеза компактности) т.е когда класс с большей вероятностью
    находится в определенной области параметров. Класс «я не знаю» не является компактным…
    —————————————————————————-
    Уважаемый Владимир, пусть один класс — это один эллипс, другой класс другой эллипс. На входе элемент не попадает ни в один , ни в другой эллипс. А делаю выход для него «Я не знаю». Где здесь компактность и вообще что такое компактность я не понял.
    P.S. Я думаю, что Вы пользовались современным фотоаппаратом, он находит автоматически лицо в рамку, иногда ничего не находит (т.е. Я не знаю) и как-то работает.

    1. Владимир Шлаин

      Эллипсы дают только очень простые и очень старые системы распознования.
      Нейронная сеть, SVM и другие системы распознования дают намного более сложные поверхности.
      Гипотеза компактности говорит о том, что обьекты данного класса с большой долей вероятности лежат внутри этих областей,
      иначе задача классификации бессмысленна. Относително неопределенного класса то его обьекты могут с одинаковой вероятностью
      лежать в любой точке пространства, включая «эллипсы», давая false positive ошибки.
      Относительно рамки на лицах или на изображении человека , то эта задача решается с помощю методов сегментации Computer Vision,используя априорную
      очень конкретную информацию о том,что такое лицо человека или его изображение.

  7. Simon Starobin

    Simon Starobin
    09.09.2023 в 19:54
    Владимир Шлаин
    09.09.2023 в 08:21
    ——————————————————————————
    P.S. Тогда мне нужно будет найти ещё пару десятков тысяч снимков ни кошек и ни собак и провести трейнинг по новой. Моя цель максимально упростить и понять что-то.

    1. Владимир Шлаин

      Все системы классификации(распознавания) могут работать только
      с «компактными» классами (гипотеза компактности) т.е когда класс с большей вероятностью
      находится в определенной области параметров. Класс «я не знаю» не является компактным,
      так как не может быть определен. Особенно это касается нейронных сетей, которые строят псевдо кусочно-линейные поверхности дискриминирующих
      функций.
      Чтобы обойти эту проблему, используются методы «реджекта» обьектов, тяжелейшая задача которой я посвятил свою научную
      деятельность и имею патенты.Есть два вида реджекта.
      1) ambiguity, когда объкты двух классов очень похожи, например, при распозноватии письменного текста
      английское A бывает очень похожа на английское U, так как написанное от руки А бывает не замкнутой наверху.
      2)»я не знаю» так как обьект принадлежит не заявленному на обучении классу.

  8. Simon Starobin

    Владимир Шлаин
    09.09.2023 в 08:21
    Попробуйте представить системе обученной на собачках и кошечках фото с крокoдилом. Что скажет система?
    —————————————————————————
    Уважаемый Владимир, мне и пробовать не надо , система выдаст неправильный результат. Я имею два выхода, один вероятность собаки, другой — вероятность кошки. Что интересно, что почти всегда, когда кошка , то её вероятность намного больше, и наоборот.
    Можно ввести три выхода, т.е добавить — ни кошка и ни собака.

  9. Simon Starobin

    У меня возникла небольшая дискуссия с автором о количестве параметров в convolution нейронной сети. Автор утверждает, что число параметров должно быть небольшим , а я наоборот — очень большим. Я подумал , что можно привести конкретные цифры , а дальше говорить много или мало. Формула для числа параметров между двумя каскадами следующая
    П = ( (к*к) * с1+ 1) * с2,

    где П — число параметров,
    к — размер квадрата вокруг пикселя ( в image processing это фильтр, и здесь есть за что ухватиться в некоторых обьяснениях)
    с1 — число слоёв в предыдущем каскаде ,
    с2 — число слоёв в последующем каскаде.
    Почти всегда я брал к = 3, (иногда 5)
    c1, c2 — вариировалось между 64 и 512.
    По крайней мере 3 каскада было с1 и c2 равными 512.
    Число каскадов от 10 до 15.
    Если предыдущий и последующий каскад имеют с1 = с2 = 512, а к = 3,то число параметров 2359808.
    Всегда , когда я программировал какую-то задачу, то знал какой будет результат после отладки. Если что не так , то можно было найти баг. Здесь всё не так , каким образом находится маленькая собачёнка в углу огромной комнаты не могу даже представить. Если не находится , то совершенно не известно, что надо изменить. Это на мой взляд самое страшное в ИИ программинг. Разработчик бессилен , если произошёл сбой.

    1. Владимир Шлаин

      Попробуйте представить системе обученной на собачках и кошечках фото с крокадилом. Что скажет система?

  10. Zvi Ben-Dov

    Уже писал, что понимание, что такое ИИ с математикой связано слабее всего, поскольку та (математика) работает на самом низком из уровней, описывающих искусственные системы — уровне «параметры», хоть иногда и поднимается на одну ступеньку выше — уровень «средства». Это самые низкие уровни решения творческих задач, но при этом эти (относительно рутинные) задачи могут быть исключительно сложными — такой вот парадокс.
    Скорее сам ИИ поймёт, что же он такое, чем создавшие его (ИИ) отдельные модули математики 🙂

  11. Simon Starobin

    Владимир Шлаин
    03.09.2023 в 08:04
    Это противоречит теории. Увеличение числа параметров ухудшает генерализацию и увеличивает VC- dimension.
    Большинство реальных задач не имеют гигантского обьема данных.
    —————————————————————————
    Проблема состоит в том, что для этих гиганских систем нет пока теории, сплошное ремесло. Как я уже говорил, если появится теория, то это перестанет быть ИИ.
    Зарплаты кудесников супер-специалистов резко упадут, так как можно будет обучать обычных людей теории чего-то (не ИИ, а какому-то разделу скорей всего математики).

    1. Александр Денисенко

      «Зарплаты кудесников супер-специалистов резко упадут, так как можно будет обучать обычных людей теории чего-то (не ИИ, а какому-то разделу скорей всего математики).»
      ————————————————————————————-
      Кудесники в отстаивании своих зарплат пойдут на костёр, но не предадут Веру. И это тупик для науки — самые умные оказались самыми вредными для прогресса. Игорь Ашманов предрекает скорый разрыв этого мыльного пузыря. И на его ошмётках вполне может возникнуть что-то позитивно-научное. Ждёмс.

  12. Борис Дынин

    Было бы интересно после обмена мнений об ИИ к публикации
    «Владимир Шлаин: Мифы Искусственного Интеллекта»
    https://7i.7iskusstv.com/y2023/nomer8/shlain/ ,

    если бы Simon Starobin и Владимир Шлаин
    прокомментировали публикацию Михаила Эпштейна
    «ЛОГИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СРАВНЕНИИ С ЕСТЕСТВЕННЫМ»
    https://7i.7iskusstv.com/y2023/nomer8/mepshtejn/#_ftnref7
    (повторю приглашение под обеими публикациями)

  13. Simon Starobin

    Александр Денисенко
    — 2023-09-02 19:36:40(886)

    Уважаемый Simon!
    Живой ребёнок вряд ли перерабатывает десятки тысяч фото собачек-кошечек, чтобы научиться их различать. И родители обходятся без ремня и печенек. Как-то иначе всё устроено, мне кажется.
    —————————————————————————————
    Уважаемый Александр, абсолютно согласен с Вами. Автор данной заметки тоже утверждает что это не имеет никакого отношения к работе мозга.

  14. Simon Starobin

    Simon Starobin
    02.09.2023 в 20:03
    P.S. Насчёт количества каскадов, в некотором смысле правы. В методе конволюшен в каждом каскаде создаётся большое количество слоёв, за счёт этого растёт с огромной скоростью число параметром. Я по небрежности назвал их каскадами.

  15. Simon Starobin

    Владимир Шлаин
    02.09.2023 в 16:39
    Повышение количества каскадов не улучшает распознование,поэтому в реально работающих системах Deep Learning нет большого числа каскадов.
    Повышение количества параметров системы распознования понижает устойчивисть решения (т.е. генерализацию результата) и требует резкого увеличения количества
    данных. Метод эллипса — это метод Фишера,предложенный в 1936 году (первый метод машинного обучения).
    ——————————————————————————
    Уважаемый Владимир, как я уже говорил весь фокус состоит в огромном количестве параметров. Если я не ошибаюсь, то число параметров в речевых системах порядка несколько триллионов.
    С числом каскадов тоже обратная история, с увеличением числа каскадов уменьшается чувствительность метода (малая чуствительность — большая устойчивость). На ранних каскадах изменение параметров методом back propagation почти не сказывается на результатах. Для преодоления этого еффекта делается даже частичное шунтирование промежуточных каскадов. Это звучит дико, но работает. Есть ещё дикие вещи , которые работают. По-мойму Вы упомянули канадского исследователя (забыл фамилию). Он предложил случайным образом обрывать связи между каскадами (я это делал) и получал улучшение .
    Не знаю про метод Фишера, но судя по имени — это наверное метод принципиальных направлений, используемый в статистике для уменьшения размерности. Согласен- это очень важный метод для обработки больших обьёмом данных. Я не пытаюсь использовать этот метод для распознования. Как я написал , пытаюсь использовать для анализа параметров системы.
    Да ещё , почему я думаю, что есть какой-то порядок с параметрами. Сейчас популярен метод претрайнинга. Первоначальные каскады с одной системы берутся для решения совсем других задач, т.е ранние параметры представляют собой некие общие структурные свойства, а мелкие детали дорабатываются на последних каскадах.

    1. Владимир Шлаин

      Это противоречит теории. Увеличение числа параметров ухудшает генерализацию и увеличивает VC- dimension.
      Большинство реальных задач не имеют гигантского обьема данных.

  16. Zvi Ben-Dov

    Роберт Силверберг,Сокровище
    https://libking.ru/books/sf-/sf/51795-robert-silverberg-sokrovishche.html

    «Робот задал восемнадцатый вопрос, удивительно простой. Все, что он хотел, это формулировку теоремы Пифагора. Для этого Липеску даже не понадобился компьютер. Он ответил сам, коротко, сжато и правильно. Бользано испытал прилив гордости за своего партнера.
    И тут робот убил Липеску.»

    «На что он запрограммирован? По каким ответам он должен узнать хозяина? Что означает его странный совет — «раскрой в ответах душу»? Как можно раскрыть душу в теореме Пифагора Как вообще ее можно раскрыть?»

    «Перед ним стоял чужой робот, творение неизвестных мастеров. Как работал мозг его создателей? Уважали ли они знания? Ценили ли факты ради самих фактов? Или робот считает информацию бессмысленной и признает только нелогические процессы, такие, как вдохновение, далекие ассоциации, необремененные логикой полеты мысли? Его первый ответ явная бессмыслица, абракадабра. Но ведь если научные знания у всех одинаковы, то абракадабра у каждого своя, она индивидуальна! Не в индивидуальности ли раскрывается душа?
    И он ответил:
    — Живительно и освежающе действие боли.
    И ждал, не сводя глаз с панели.
    Панель оставалась неподвижной.
    — Монастырь Квайзон, — произнес робот, — был осажден 3 апреля 1582 года солдатами Ода Нобунага. Какие мудрые слова изрек аббат?
    Теперь его не страшили никакие вопросы. Он нашел алгоритм ответов. Он теперь может отвечать на любой вопрос легко, быстро и четко. И он выпалил первое, что пришло в голову:
    — Одиннадцать, сорок один, слон, объемистый.
    Последнее слово вырвалось у него случайно, он пожалел о нем. Слоны действительно объемисты. Это точное знание. Вдруг это окажется фатальной ошибкой?
    Последнее слово вырвалось у него случайно, он пожалел о нем. Слоны действительно объемисты. Это точное знание. Вдруг это окажется фатальной ошибкой?
    Робот, похоже, не заметил оплошности. Он задал следующий вопрос:
    — Каков процент кислорода в атмосфере Мулдонара-7?
    — Клевета не медлит с расправой.
    Панель не двигалась, но робот странно загудел и откатился на широких гусеницах в сторону. Вход в сокровищницу был свободен.
    — Можешь войти, — сказал он.

    Все это время, пока Бользано грабил сокровищницу, робот стоял без движения, не проявляя к нему никакого интереса. Но когда Бользано прошел мимо него, он спросил:
    — Почему ты выбрал именно эти вещи? Зачем они тебе?
    Бользано улыбнулся и беззаботно ответил:
    — Я взял их, потому что они красивы. Потому что они нужны мне. Разве есть причина лучше?
    — Нет, — ответил робот, и панель на его черном туловище скользнула в сторону.
    Слишком поздно Бользано понял, что испытание еще не закончилось, что робот задал вопрос не из праздного любопытства. Но на этот раз он ответил точно и логично.
    Он успел вскрикнуть, увидев устремившееся к нему яркое сияние.
    Смерть наступила мгновенно.»

    Вот такой ИИ 🙂

  17. Инна Беленькая

    Нет никакого искусственного интеллекта,
    _____________________________
    А как же шахматы? Кто обыграл Каспарова? Не искусственный интеллект?

      1. Александр Денисенко

        Это работы группы Арлазарова-Фараджева и Адельсона-Вельского конца 60-х лет прошлого века. ИТЭФ-ИПУ. Или я не всё понимаю?

        1. Владимир Шлаин

          Шахматная программа «Каисса» была создана в ИПУ в 60- х года Михаилом Донским и группой ученых. Она заняла первое место на конкурсе шахматных программ.

          1. AB

            В 1967 году программа ИТЭФ (Кронрод – Арлазаров) обыграла программу Стэндфордского университета (Маккарти) Кстати, Маккарти является одним из авторов термина ИИ (Дортмундская конференция). А Кронроду принадлежит известное выражение: »Шахматы –дрозофила ИИ».
            Программа Каисса (главным разработчиком был М. Донской) была развитием программы ИТЭФ и победила в первенстве мира 1974 года в Стокгольме. Заслуги ИПУ в этом немного.
            Семинар Брудно-Кронрода был выдающимся семинаром по ИИ в смысле широты рассматриваемых задач, только не употребляя этого термина.
            Про это подробно написано в журнале https://7i.7iskusstv.com/y2022/nomer4/brudno/

            Хочу поблагодарить автора заметки за прекрасную статью, в которой описан принцип работы нейронных сетей. Статей по ИИ теперь огромное количество, но никто не пытается объяснить как и что привело к такому взрывному интересу к ИИ. Без нейронных сетей машины не смогли бы победить чемпиона мира по шахматам т.к. методы перебора плохо играют эндшпиль (когда фигур мало).

  18. ЕвгенийВ

    Во-первых, я, будучи по образовании компьютерщиком, на 100% согласен с Вами, дорогой автор.
    И еще я сейчас подумал подумал: когда какая-то система ИИ объявит, что одни ТВ программы ей смотреть Интересно (хочется), а другие не хочется (Неинтересно),
    но абсолютно не сможет объяснить почему, когда она заявит, что некий фильм она «хочет» посмотреть второй и третий раз, а другой — «не хочет», увидев лишь первые кадры, —
    вот тогда разбудите меня, разработчики ИИ…

  19. Simon Starobin

    Я во многом согласен с автором и если бы сейчас был 2016 год , то был бы согласен во всём. Где-то в 16-17 году произошёл как говорят в Америке «break thru» в области ИИ. Опять же согласен с автором ничего теоретического нового не было найдено. Просто количество ( скорость, благодаря параллельным вычислениям, и обьёмы памяти) перешло в качество. Те же самые нейронные сети , из-за увеличения количества каскадов названные Deep Learning (DL) , вдруг начали выдавать непредвиденные результаты. Открылся новый Клондайк.
    Во всех университетах сразу забросили Вапника, Заде и других и бросились добывать золото на DL. Появилось много новых компаний, конечно много спекуляций, но всё же, всё же. Никто ничего не понимает, кругом эвристика , но результаты налицо.
    Теперь о том, что я пытаюсь делать. Никогда в своей професиональной деятельности не занимался ИИ, Если только имeдж процессинг , которую автор упоминает как разновидность ИИ. В этой области я работал , но считаю это обычной прикладной математикой. Таким образом пенсионер- дилетант.
    В комментарии к статье Эмануила Диамата https://club.berkovich-zametki.com/?p=77318 я обьяснял , что такое ИИ на примере 2-мерного входного сигнала.
    Для того чтобы поработать с реальным случаем загрузил доступное множество фотографий собак и кошек. Всего 60000. Взял 50000 фотографий для обучения и 10000 в качестве тестовых. Эксперенентируя с количеством слоёв и связей добился в нейронной сети вероятности распоз
    нования 0.97. Т.е, из 10000 тестовых фотографий 9700 были классифицированы правильно.Оптимизациа (обучение) шло в области 10 миллионов параметров. Мoя цель понять какой физический смысл этих параметров (кто-нибудь скажет ешё один фермист и будет прав).
    Если мы возьмём описанный мной метод эллипсов и применим его к задаче кошки/собаки (KC), то получим следующее.
    Картинки были максимально упрощены ,300* 300 пикселей. Т.е входной сигнал имеел размерность входного сигнала 300* 300 = 90000.
    Таким образом надо стрить эллипс в пространстве размерности 90000. Такой эллипс содержит 90000 осей и каждая ось 90000 координат ( нормированные кординаты плюс длина ) плюс центр эллипса. Задача очень сложная но разрешимая. В реальности если бы я это делал . то скорее всего только первая 1000 осей имела бы ненулевую длину. Поэтому можно спроектировать наш эллипс в пространство с размерность 1000 и иметь грубо 1000* 1000 — миллион параметров . Второй эллипс тоже миллион красота. Красота в том , что все эти числа имеют простой физический смысл. Если бы мы получили их в процессе грубой оптимизации, то это было бы такое же night-mare.
    Почему я это не делаю. Задача КС явно нелинейная. Фотографии сняты на фоне природы, в комнатах, во дворах, с людьми, мебелью, животные в разных местах, позаx, разные породы и т.д..Как это работает я не понимаю. Метод эллипсов (MЭ)в статистике называется методом принципиальных направлений а в остальной математике собственными функциями ( оси- aegean funktion, ) и собственные значечиа ( длина оси -aegean values, ). Это идеальный метод для анализа так называемого близкого к линейному черного ящика (ЧЯ). Ели мы находим собсвенные функции и собственные значения ЧЯ , то можем сразу найти выходной сигнал для любого входного.
    Сейчас планирую применить МЭ на классической задаче распознования рукописных цифр от 0 до 9. Загрузил 10000 фотографий цифр. Все в одном масштабе на белом фоне. Думаю что эта задача близка к линейной. Если сработает , то может быть можно будет применить метод последовательной линеализации к более сложной задаче как например КС. Т.е можно будет представить решающее множество в КС как сумма последовательности систем собственных функций.
    P.S. Всё это я выношу на обсуждение только потому что все люди , с кем бы я мог поделиться, уже в ином мире. Для автора этой заметки ещё раз повторяю, всё что Вы написали правильно, но не для той размерности с которой оперируют нынешние ИИ.

    1. Владимир Шлаин

      Повышение количества каскадов не улучшает распознование,поэтому в реально работающих системах Deep Learning нет большого числа каскадов.
      Повышение количества параметров системы распознования понижает устойчивисть решения (т.е. генерализацию результата) и требует резкого увеличения количества
      данных. Метод эллипса — это метод Фишера,предложенный в 1936 году (первый метод машинного обучения).

    2. Александр Денисенко

      Уважаемый Simon!
      Живой ребёнок вряд ли перерабатывает десятки тысяч фото собачек-кошечек, чтобы научиться их различать. И родители обходятся без ремня и печенек. Как-то иначе всё устроено, мне кажется.

  20. Zvi Ben-Dov

    Очень интересная, но (для меня) совершенно бесполезная статья.
    И ещё…
    Дальнейше развитие ИИ (ну того, чего пока(?) нет) и его «направлений, по-моему, меньше всего связано с математикой, а, скорее, с «практической» философией.
    Вот только где их (практикующих философов) сейчас найдёшь? 🙂

  21. Александр Денисенко

    «Для меня, например, способность человека осознать, что он чего-то не знает, и является признаком истинного интеллекта. К сожалению, в настоящее время все больше появляется людей, которые знают абсолютно все. От этого, на мой взгляд, и все беды человечества».Спасибо. Очень точно.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Арифметическая Капча - решите задачу *Достигнут лимит времени. Пожалуйста, введите CAPTCHA снова.