Лингвистические переменные в первом приближении можно оцифровать, ранжировав их по эффективности. Тогда переменная превращается в вектор, число степеней свободы которого равно числу ее термов. Далее эффективно используется аппарат анализа числовых случайных переменных.

Направление исследований нечетких переменных через их отображение на четких множествах широко используется в различных методах анализа ситуаций. Например, вводят оператор fuzzy (0…1)

, который и ставит в соответствие четкому числу - нечеткое множество, содержащее число кортежей, равное числу функций принадлежности, заданных для данной лингвистической переменной. Результатом выполнения над фаззифицированным вектором входных переменных X композиционного правила Л. Заде будет множество: , где - нормирующий вектор коэффициентов.

Результирующее значение выхода y определяется как суперпозиция линейных зависимостей, выполняемых в данной точке x* n-мерного пространства. Для этого дефаззифицируем нечеткое множество .

Обозначим дефаззификацию функционалом: . Введем следующие обозначения:

- слой, где k – общее число слоев. Под слоем будем понимать структурную единицу, содержащую все независимые задачи, которые могут выполняться параллельно и результат выполнения одной не влияет на ход вычисления других задач.

- задача слоя l, где mi - общее число задач слоя l. Под задачей мы подразумеваем атомарную расчетную единицу нечеткого логического вывода, представляющую собой схему нечеткого логического вывода по Сугено.

- лингвистические переменные задачи t слоя l. Теперь мы можем представить нечеткое выходное множество следующим образом:где a, b некоторые числа.

НЕ нашли? Не то? Что вы ищете?

Следующее утверждение также справедливо:.

Используя композиционное правило Л. Заде мы можем представить зависимости 3 и 4 следующим образом:

.

После дефаззификации мы получим: . Или с использованием правила Заде: .

Случайной функцией называется функция, значение которой при каждом данном значении аргумента (или нескольких аргументов) является случайной величиной. Всякая функция, которой оказывается равна случайная в результате опыта, называется реализацией случайной функции. Скалярная функция одного скалярного вещественного аргумента (в качестве которого обычно выступает время) называется случайным процессом. Случайная функция нескольких скалярных вещественных аргументов (обычно координат точек пространства) называется случайным полем.

Случайная величина, событие появляется в некотором пространстве размерностью . Это пространство определено в классической теории вероятностей, как пространство исходов. Размерность пространства зависит от числа составляющих случайную величину частей (компонентов) и возможных числовых значений (уровней), которые могут принимать эти компоненты. В компьютерных приложениях, как правило, число разрешимых уровней для -го компонента принимается равным , где - целое число.

Изображения имеют некоторую специфику формирования потока данных. Растровые форматы представления изображений передают информацию о нем по точкам. Если точка (пиксель) характеризуется кодированием цвета с , то говорят о бинарном представлении - компоненты, при - о полутоновом. Точка обычно представлена в трех или четырех компонентном пространстве, в последнем случае добавляется - компонента, характеризующая прозрачность пикселя.

Трех компонентное пространство в целочисленном представлении для полутонового описания пикселя может быть представлено в формате с перекодировкой, это 16 - и 256 - цветные модели. Такой файл описания изображений сопровождается перекодировочной таблицей. По таблице коды преобразуются в представление без кодировки с . Эти форматы получили еще название индексированных. Элемент матрицы ai, j является указателем на таблицу цветов. Число используемых цветов равно 2K, где K - количество бит, используемый для хранения элемента матрицы. Цвета в указываемой таблице могут кодироваться другим числом бит. Например, в 256 цветовых режимах видеоадаптеров выбирается 256 цветов из 262144 возможных, так как выбираемые цвета представляются в RGB формате и для каждой цветовой компоненты кодируется 6-ю битами. Преобразование изображения в индексированные (Error diffusion, ближайшего цвета...) может быть осуществлено одним из известных методов.

Распознаваемый объект представлен пикселями. Тогда объем пространства исходов

или .

Специфика описания ситуации в задачах распознавания образов и принятия решений в значительной величине объема пространства исходов. Даже для сегмента описания объекта и с 24 - битным представлением пикселя он превышает .

Наряду с пространством исходов в математической статистике вводятся понятия - - алгебры подмножеств заданных на . Которое определяет совокупность подмножеств множества , базирующихся на теоретико-множественных операциях – объединении, пересечении, образовании дополнения и замкнутых относительно счетных объединений. В ТПР особенно актуален расчет метрики пространства, она определяет расстояния между объектами и в конечном итоге потери при не правильных решениях.

Третий объект - вероятность на .

Набор объектов называется вероятностной моделью или вероятностным пространством задачи и полностью описывает ситуацию, если определены в нем все рассматриваемые классы, цели и потери.

Вероятностные характеристики случайного процесса могут быть определены на основе понятия совокупности (последовательности) случайных величин . Наиболее полной такой характеристикой является n-мерная функция распределения вероятностей. Наряду с временным аргументом в число аргументов могут входить координаты пространств решаемых задач. В этих задачах случайные факторы приводят к случайным полям, обладающим пространственно-временными характеристиками функций распределений.

Ее интегральный вид во временном представлении:

- вероятность того, что случайный процесс в любые возможные моменты времени примет соответственно значения не выше уровней из множества . Эта функция не отрицательна и согласована

при .

Она не убывает и ограничена {0…1}. Если функция дифференцируема то плотность вероятностей

.

Она не отрицательна и ее площадь равна единице. Данная функция широко используется в анализе.

1.5.  Оценка параметров и функций в анализе ситуаций

Наиболее употребимы определения точек ожидания появления событий, это математическое ожидание, медиана, мода. Для одномерного пространства исходов - скаляры, для многомерного - вектора.

Математическое ожидание можно определить по плотности функции распределения - , или по выборке размером - , где - порядковый номер зафиксированного события , изменяется от 0 до , недостоверные отсчеты не фиксируются. Данная характеристика получила еще название абсциссы центра тяжести плотности распределения случайной величины. Не достоверные выбросы, которые могут появляться в ряде случаев сильно смещают этот параметр. Математическое ожидание, как основная характеристика свойства объекта часто используется в задачах с многократным повторением процедур распознавания или принятия решения.

Медиана () определяет координаты точки, относительно которой появление событий справа и слева равновероятно. Другое определение – абсцисса прямой, параллельной оси ординат и делящей фигуру под плотностью вероятности на две одинаковой площади. Для возрастающего ряда без интерполяции можно записать:

,

где , - границы интервала проявления , знак выделяет условие, которому должен удовлетворить переменная, в данном случае выбираются только те, для которых . Ориентация на медиану оправдана тогда, когда величина отклонения случайной величины от интервала положения медианы не играет роли и важно только попадание в цель. При этом процедура распознавания применяется многократно. Медиана более устойчивая к аномальным явлениям характеристика, чем математическое ожидание.

Мода () выделяет точку или отрезок на оси, на котором величина плотности вероятности имеет максимальное значение. Другое определение – абсцисса наиболее вероятного события.

.

Мода часто выбирается в качестве цели при однократном применении решения. Эта характеристика наиболее чувствительна к помехам и не четкости информации, чем математическое ожидание.

Перечисленные параметры оценивают координату ожидаемого результата. Возможна в практическое применение и их комбинации, как нелинейная так и линейная, например, величина :

,

где , , - коэффициенты доверия и .

Вторым по важности параметром является оценка ожидания разброса случайной величины. Эти оценка могут быть выражена числом, или интервалом на оси абсцисс, а для многомерных величин эллипсоидом, нередко носящим имя эллипсоида рассеяния.

На практике наибольшее применение получили функционалы вида

или ,

где - номер зафиксированного события (0-n),

- номер канала,

, - абсцисса канала, вероятность попадания события в канал, на графике плотности вероятности (0-g),

- показатель степени, положительная величина, целая или дробная, определяет метрику данного критерия.

При =1, говорят об оценке разброса через величину среднего арифметического отклонения, при =2, оценивается разброс через величину среднеквадратичного или стандартного отклонения. Чем выше величина , тем более влияют выбросы в измерениях и соответственно величина отклонения.

Определим усредненную симметричную оценку параметра разброса случайной величины при наличии неопределенности в задании коэффициента .

,

где коэффициенты доверия оценки отклонения с - показателем степени и ; - порядковый номер функционала со степенным коэффициентом , изменяется от 1 до - числа конкурирующих оценок.

Оценка интервала (его границ), существования проявлений объектов исследуемого события, обычно ведется при задании ограничения на вероятность появления события вне интервала или внутри интервала.

Рис.1.7. Интервалы анализа

Для одномерного случая с равным распределением вероятности ошибки определения интервала справа и слева границы доверительного интервала можно определить, как

;

,

где - заданная вероятность ошибки, min_x, max_x границы интервала учета событий.

Определение доверительного интервала позволяет уменьшить пространство исходов.

Очень часто одно из граничных значений координаты появления события берется за исходную точку для осторожного принятия решения, которое обычно ориентируется на наихудшее стечение обстоятельств. Эта координата соответствует появлению наиболее не желательного события. В этом случае вводится понятие допустимой вероятности появления более неблагоприятного события, чем те которые учитываются. Исходя из этого ограничения и определяется наиболее важная граница доверительного интервала.

Наряду с естественными системами координат, описывающими пространство исходов, используются и искусственные системы, производные от естественных. Например, из координат трехмерного пространства и времени формируются системы пространственных и временных частот.

В таких системах так же задаются интервалы существования объектов одного класса.

Важным понятием для решения задач принятия решений является понятие неопределенности исходных данных, методик и т. п.

Энтропия. Большинство вещей в нашем мире в той или иной степени являются неопределенными, неточными, неполными, качественными. Все эти характеристики очень трудно оценивать, используя только классические математические методы. Энтропией называется степень неупорядоченности. В термодинамике, откуда заимствовано это понятие, энтропия связывается с вероятностью возникновения определенного расположения молекул. Энтропия показывает и величину разнообразия системы, где под разнообразием понимается степень неопределенности, возникающей при выборе из большого числа всевозможных вариантов. В термодинамике при изучении тепловых процессов Л. Больцман дал статистическое определение энтропии в 1877 году и заметил, что энтропия характеризует недостающую информацию. Через 70 лет, когда Клод Шеннон формулировал постулаты теории информации, оказалось, что формула Больцмана тождественна определению информационной энтропии. Что в конечном итоге привело к современному пониманию энтропии как фундаментальному свойству материи. Шеннон ввел понятие “энтропия”, которое позволяет описать степень нечеткости в случайных данных. Для уменьшения энтропии необходимо уменьшить существующую неопределенность, что обеспечивается путем получения (уточнения) информации. В кортеж случайной величины энтропия естественно самостоятельно не входит. Она является функцией от распределения вероятностей появления объекта, например, альтернативных решений или различных проявлений внешнего мира.

  Энтропия характеризует недостающую информацию. Энтропия – это мера неопределенности случайного объекта. Вычисляется по формуле  , где – вероятность i исхода, а n – количество возможных состояний.

Свойства энтропии: Энтропия равна 0 в том и только в том случае, когда одно из pi равно 1, а остальные равны 0.

Энтропия достигает наибольшего значения при равенстве всех вероятностей исходов. Энтропия суммы событий равна сумме энтропий событий. С увеличением числа возможных состояний энтропия увеличивается. Единицей энтропии является величина, зависящая от основания логарифма. Если рассматривается физическая система с двумя равновероятными состояниями, тогда в формуле часто используют с основанием 2. Единицы измерения биты. Если рассматривается физическая система с числом n-равновероятных состояний, тогда в формуле с основанием 10. Единицы измерения банах, дитах, хартах, натах.

Когда мы говорим об энтропии в терминах нечеткой логики, мы получаем нечеткую энтропию, которая описывает степень размытости нечеткого множества. Но здесь важно отметить существенное отличие нечеткой энтропии от классической: нечеткая энтропия содержит нечеткую неопределенность, в то время как классическая представляет собой случайную вероятность.

Пусть X= ( x, , x 2 , : . . , x, ) , F(X) нечеткое множество на X, P(X) все четкие множества на x, , for , A(x) – функция принадлежности A. - дополнение A, пусть [a] = [a](x) = a () будет постоянное нечеткое множество на X.

Степень нечеткости четкого множества равна 0, потому что его элемент может либо принадлежать, либо не принадлежать этому множеству. Степень нечеткости нечеткого множества [0.5] достигает максимального значения, поскольку в этом случае элемент с равной вероятностью может принадлежать множеству или не принадлежать. Очевидно, дополнение такого нечеткого множества А будет иметь ту же степень нечеткости.

Также степень нечеткости подмножества A должна быть монотонной: чем ближе A к интервалу (0…5), тем выше эта степень; чем далее от этого интервала, тем ниже. Основываясь на приведенном выше анализе, предлагается определение нечеткой энтропии:

Так как пересечение A и A' не нулевое, Ягер предложил следующую формулу для нечеткой энтропии:

Аксиомы нечеткой энтропии приняты научным сообществом и стали важным критерием определения любой новой нечеткой энтропии. Сейчас существует множество формул энтропии, выбор конкретной зависит от решаемой задачи.

2.  Теория полезности, риск

2.1.  Риск и его описание

В структуру основных математических конструкций ТПР входит матрица последствий принятия решений.

В таблице представлена квадратная матрица состоящая из столбцов и строк (в распознавании образов используется очень часто).

Предъявлен/

Распознан

Образ 1

...

Образ j

...

Образ n

Образ 1

...

...

...

...

...

...

...

...

Образ i

...

...

...

...

...

...

...

...

Образ n

...

...

Строки показывают ситуации, которые могут возникнуть при принятии решения, например объекта с номером .

Столбцы показывают последствия решений при наличии (предъявлении) образа из-го класса, а распознавании его как образа из -го класса.

В ТПР данная матрица, как правило, не симметрична. Строки отражают последствия конкретного решения (1... ), столбцы выделяют ситуации, в которых осуществляется принятое решение (1Под ситуацией часто понимается внешняя обстановка, например, характер и объем решаемых задач, которые могут возникнуть при функционировании компьютерной системы, решения по типу конфигурации которой принимается. Для конкретной области применения часто называют полезностью решения, т. е. предполагается то, что данная величина положительна. В заранее убыточных задачах матрица заполняется величинами платы за принимаемые решения. Реально - вектор, нередко объединяющий оценки разнородных величин, например, потери мощности, стоимость, безопасность в эксплуатации, габариты в задачах проектирования систем электропитания. Если компоненты вектора нельзя привести к одному знаменателю, например, денежному эквиваленту, то такие задачи относят к многокритериальным.

Отдельный разговор о метрике компонентов , не редко на практике существует нелинейность в оценке платы за неправильные решения и отдельные потери не допустимы, тогда говорят о границах приемлемости существования ошибки. Например, перегрев процессора без системы защиты, приводящий к его разрушению, не допускается.

Ситуация/

Решение

Ситуация 1

...

Ситуация j

...

Ситуация

Решение 1

...

...

...

...

...

...

...

...

Решение i

...

...

...

...

...

...

...

...

Решение n

...

...

При распознавании образов правильное решение для всех образов в большинстве случаев оценивается одинаково. . Тогда целесообразно перестроить матрицу полезности, превратив ее в матрицу рисков от принятия не правильных решений.

Из за большого объема этот материал размещен на нескольких страницах:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16