Искусственный интеллект сегодня

Карасев Дмитрий Сергеевич – студент Казанского национального исследовательского технологического университета. (г.Казань)

Аннотация: В статье рассматриваются основные возможности сетей искусственного интеллекта. Приводятся примеры сетей и их достоинства. Говорится о некоторых способах обучения нейронных сетей и их  применении.

Ключевые слова: искусственный интеллект, нейронные сети,  карты Кохонена, машина Больцмана, правило Хебба.

Нарастающие информационные потоки в современном обществе, разнообразие информационных технологий, повышение сложности решаемых компьютером задач увеличивают нагрузку на пользователя этих технологий и ставят задачу переноса решения проблемы на ЭВМ, облегчения и расширения возможностей работы человека.

Исследования в области искусственного интеллекта прошли три периода. Первый пик в 40-х годах обусловлен пионерской работой МакКаллока и Питтса. [1] Второй возник в 60-х благодаря теореме сходимости перцептрона Розенблата и работе Минского и Пейпертаб указавшей ограниченные возможности простейшего перцептрона. Результаты Минского и Пейперта погасили энтузиазм большинства исследователей. Возникшее затишье продлилось почти 20 лет.

МакКаллок и Питтс предложили использовать бинарный пороговый элемент в качестве искусственного нейрона. Этот математический нейрон вычисляет взвешенную сумму n входных сигналов xj, j = 1, 2… n и формирует на выходе сигнал величиной 1, если эта сумма превышает определенный порог u, и 0 – в противном случае. [1]

Способность к обучению является фундаментальным свойством мозга. Процесс обучения может рассматриваться как настройка архитектуры сети и весов связей для эффективного выполнения специальной задачи. Обычно нейронная сеть должна настроить веса связей по имеющейся обучающей выборке. Свойство сетей обучаться на примерах делает их более привлекательными по сравнению с системами, которые следуют определенной системе правил функционирования, сформулированной экспертами.

Для построения процесса обучения, необходимо иметь модель внешней среды, в которой функционирует нейронная сеть – знать доступную для сети информацию. Существуют три вида обучения: «с учителем», «без учителя» и смешанный. Известны 4 типа правил обучения: коррекция по ошибке, машина Больцмана, правило Хебба и обучение методом соревнования.

По архитектуре связей сети могут быть сгруппированы в два класса: сети прямого распространения и рекуррентные сети.

Архитектуры прямого распространения и рекуррентных сетей

Рисунок 1. Архитектуры прямого распространения и рекуррентных сетей.

Для сетей прямого распространения характерны многослойные сети. Стандартная L-слойная сеть прямого распространения состоит из слоя входных узлов, (L-1) скрытых слоев и выходного слоя, соединенных последовательно в прямом направлении и не содержащих связей между элементами внутри слоя и обратных связей между слоями.

Существует множество спорных вопросов при проектировании сетей прямого распространения, например, количество слоев для данной задачи, количество элементов в каждом слое, реакция сети на данные, не включенные в обучающую выборку, размер обучающей выборки, необходимый для достижения высокой способности сети к обобщению. Многие параметры многослойных сетей еще должны быть определены путем проб и ошибок.

Самоорганизующиеся карты Кохонена обладают благоприятным свойством сохранения топологии. Она представляет собой двумерный массив элементов, причем каждый элемент связан со всеми n входными узлами.

Самоорганизующиеся карты Кохонена могут быть использованы для проектирования многомерных данных, аппроксимации плотности и кластеризации. Эта сеть может успешно применяться для распознавания речи, обработки изображений, в робототехнике и в задачах управления. [2] Параметры сети включают в себя размерность массива нейронов, число нейронов в каждом измерении, форму окрестности, закон сжатия окрестности и скорость обучения.

Скорость обучения и ее качество играет немаловажную роль в создании нейронной сети. Для сокращения времени обучения применяют, например:
1)    Принцип достаточности, изменяющий критерий оптимизации: целью уже не является точка искомого оптимума, а лишь некоторая ее окрестность, обеспечивающая достаточную точность решения конкретной задачи. Такой шаг позволяет существенно сократить время обучения сети. Далее предложено несколько подходов, позволяющих сократить обучение нейронной сети, опираясь на понятие достаточности.
2)    Изменение весовых коэффициентов нейронной сети с учетом принципа достаточности, позволяющее уменьшить число итераций обучения нейронной сети при заданной точности распознавания элементов выборки.

Можно выделить несколько групп задач, требующих применения искусственного интеллекта:
•    обработка видеоизображения;
•    преобразование изображений в текстовые документы;
•    распознавания речи;
•    работа в системах безопасности;
•    прогнозирование в различных сферах;
•    решение сложных инженерных задач и др.

Многие задачи, для решения которых используются нейронные сети, могут рассматриваться как частные случаи следующих основных проблем:
•    построение функции по конечному набору значений;
•    оптимизация;
•    построение отношений на множестве объектов;
•    распределенный поиск информации и ассоциативная память;
•    фильтрация;
•    сжатие информации;
•    идентификация динамических систем и управления ими;
•    нейросетевая реализация классических задач и алгоритмов вычислительной математики.

Не важно, что специализированная программа лучше решит один класс задач, важнее то, что одна программа решит не одну, и не две, а целый комплекс задач и при этом не будет необходимости проектировать специализированное приложение. Нейронные системы «демократичны», поэтому с ними может работать любой, даже совсем неопытный пользователь.

Список литературы:

1.    W.S. McCulloch and W. Pitts, "A logical Calculus of Ideas Immanent in Nervous Activity", Bull. Mathematical Biophysics, Vol. 5, 1943 г.
2.    J. Hertz, A. Krogh, and R.G. Palmer, Introduction to the Theory of Neural Computation, Addison-Wesley, Reading, Mass., 1991 г.    
3.    Джонс М.Т. Программирование искусственного интеллекта в приложениях.: ДМК Пресс, 2006 г.

Интересная статья? Поделись ей с другими: