Я:
школьник
 
24.19%
студент
 
65.9%
аспирант
 
1.37%
преподаватель
 
2.65%
попал случайно
 
5.88%
Архив

МЕТА - Украина. Рейтинг сайтов Webalta Уровень доверия



Союз образовательных сайтов
Главная / Предметы / Кибернетика / Классификация сейсмических сигналов на основе нейросетевых технологий


Классификация сейсмических сигналов на основе нейросетевых технологий - Кибернетика - Скачать бесплатно


МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ ИНСТИТУТ ЭЛЕКТРОНИКИ И МАТЕМАТИКИ


Кафедра МОСОИиУ



                            ПОЯСНИТЕЛЬНАЯ ЗАПИСКА
                            К ДИПЛОМНОМУ ПРОЕКТУ



На тему: _Классификация сейсмических сигналов на основе нейросетевых
технологий.________________________________________________________
Студент
Руководитель проекта:



      Допущен к защите____________________200___г.



      КОНСУЛЬТАНТЫ ПРОЕКТА:
Специальная часть
Конструкторско-технологическая часть
Экономическая часть
Техника безопасности

      Зав. кафедрой________________________



                                   МОСКВА

                                 Аннотация.



    В данном  дипломе  рассматривается  задача  классификации  сейсмических
сигналов по типу источника,  т.е.  определение  по  записанной  сейсмограмме
землетрясений или взрывов. Основная  цель  диплома  состоит  в  исследовании
возможности применения аппарата нейронных  сетей  для  решения  поставленной
задачи,  и  сравнение   эффективности   такого   решения   со   стандартными
аналитическими методами.
                                 Оглавление.

Аннотация   2
Введение    5
1. Основные положения теории нейронных сетей 7
2. Постановка задачи классификации сейсмических сигналов 16
3. Статистическая методика решения задачи классификации  18
   3.1 Выделение информационных признаков из сейсмограмм      18
   3.2 Отбор наиболее информативных признаков для идентификации     19
   3.3 Процедуры статистической идентификации      21
   3.4 Оценка вероятности ошибочной классификации методом скользящего
       экзамена   22
4. Обзор различных архитектур нейронных сетей ,  предназначенных  для  задач
   классификации 23
   4.1 Нейрон-классификатор 23
   4.2 Многослойный персептрон    25
   4.3 Сети Ворда      27
   4.4 Сети Кохонена   27
   4.5 Выводы по разделу    37
5. Методы предварительной обработки данных   31
   5.1 Максимизация энтропии как цель предобработки      31
   5.2 Нормировка данных     32
   5.3 Понижение размерности входных данных   34
      5.3.1 Отбор наиболее информативных признаков 34
      5.3.2 Сжатие информации. Анализ главных компонент  35
   5.4 Выводы .по разделу    37
6.  Реализация   нейросетевой   модели   и   исследование   ее   технических
характеристик    38
   6.1 Структура нейросети   38
   6.2 Исходные данные 40
   6.3 Определение критерия качества системы и функционала  его  оптимизации
   41
   6.4 Выбор начальных весовых коэффициентов  41
   6.5 Алгоритм обучения и методы его оптимизации  42
   6.6 Формирование  обучающей  выборки  и  оценка  эффективности  обученной
      нейросетевой модели    48

7. Программная реализация    49
   7.1 Функциональные возможности программы  50
   7.2 Общие сведения  51
   7.3 Описание входного файла с исходными данными 52
   7.4 Описание файла настроек    52
   7.5 Алгоритм работы программы  57
   7.6 Эксплуатация программного продукта    58
   7.7 Результат работы программы 58
8. Заключение    61
Список литературы      63
Приложение  64
   1. Пример выборки сейсмограмм  64
   2. Пример файла с векторами признаков     65
   3. Файл с настройками программы      66
   4. Пример файла отчета   67
   5. Файл описания функций, типов переменных и используемых библиотек
      “nvclass.h”      68
   6. Файл автоматической компиляции программы под ОС Unix -“Makefile”   73
   7. Основной модуль -  “nvclass.с”    74


                                  Введение.

    Применение аппарата нейронных сетей для решения различных задач науки и
техники   обусловлено   огромными   потенциальными    возможностями,    этих
технологий.   Существуют   задачи,   решение   которых   просто   невозможно
аналитическими методами, а нейросети успешно с ними справляются. Даже в  том
случае, если можно  найти  решение  при  помощи  уже  изученных  алгоритмов,
нейронные  сети  порой  позволяют  сделать  то  же  самое  быстрее  и  более
эффективно.
    В данном дипломе рассматривается задача, возникающая  при  сейсмическом
мониторинге, –классификация сейсмических сигналов по  типу  источника,  т.е.
определение по записанной сейсмограмме землетрясений или  взрывов.  Несмотря
на то, что для ее решения, в  настоящее  время  успешно  применяются  методы
статистического анализа, продолжается поиск  более  эффективных  алгоритмов,
которые бы позволили проводить классификацию точнее и с меньшими  затратами.
В качестве таких методов предлагается использовать аппарат нейронных  сетей.

    Основная цель дипломной работы  –  исследовать  возможность  применения
нейронных сетей для  идентификации  типа  сейсмического  сигнала,  выяснить,
насколько данное решение будет эффективным в сравнении с  уже  используемыми
методами.
    Первая глава посвящена описанию  основных  положений  теории  нейронных
сетей, а также областям науки и техники,  в  которых  эти  технологии  нашли
широкое применение.
    Последующие два раздела предназначены формализовать  на  математическом
уровне задачу классификации сейсмических сигналов и способе  ее  решения  на
основе статистических методов.
    Обзор различных архитектур нейронных сетей, предназначенных для решения
задачи классификации, их основные положения,  достоинства  и  недостатки,  а
также методы предварительной подготовки данных приведены в разделах 4 и 5.
    В шестой  разделе  говорится  непосредственно  о  нейросетевом  решении
рассматриваемой  задачи,  построенном   на   основе   известной,   и   часто
используемой парадигмы –  многослойного  персептрона,  детально  обсуждаются
основные  алгоритмы  обучения,  выбора  начальных  весовых  коэффициентов  и
методы оценки эффективности выбранной модели нейронной сети.
    В   разделе   “Программная   реализация   ”   описывается    специально
разработанная   программа,   реализующая   основные    идеи    нейросетевого
программирования и адаптированная для решения поставленной задачи.  Также  в
этом   разделе   представлены   результаты   экспериментов   по    обработке
сейсмических сигналов, проведенных на базе созданной программы.
    И в заключении изложены основные выводы и рекомендации  по  направлению
дальнейших исследований в применении  нейронных  сетей  для  решения  задачи
классификации сейсмических сигналов.
                1. Основные положения теории нейронных сетей.
    Для  того,  чтобы   обсуждать   возможности   нейросетевых   технологий
необходимо хотя бы немного иметь представление об элементарных  понятиях,  о
том, что же такое нейрон, нейронная  сеть,  из  чего  она  состоит  и  какие
процессы в ней происходят.
    В нейроинформатике  для  описания  алгоритмов  и  устройств  выработана
специальная «схемотехника», в которой элементарные устройства  –  сумматоры,
синапсы, нейроны и т.п. объединяются в  сети,  предназначенные  для  решения
задач. Это своего рода особенный язык для представления  нейронных  сетей  и
их обсуждения.  При  программной  и  аппаратной  реализации  на  этом  языке
описания  переводятся  на  языки  другого  уровня,   более   пригодные   для
реализации.

Элементы нейронных сетей.
    Самыми простыми, базовыми элементами нейросетей являются:
 . Адаптивный сумматор. Элемент вычисляющий скалярное  произведение  вектора
   входного сигнала х  на вектор параметров w;
 . Нелинейный преобразователь сигнала f преобразующий  скалярный сигнал x  в
   f(x);
 . Формальный  нейрон.  (рис.1.1).  Он  состоит  из  элементов  трех  типов.
   Элементы  нейрона  -  умножители   (синапсы),   сумматор   и   нелинейный
   преобразователь. Синапсы осуществляют  связь  между  нейронами,  умножают
   входной сигнал на число,  характеризующее  силу  связи,  -  вес  синапса.
   Сумматор выполняет сложение сигналов, поступающих по синоптическим связям
   от   других   нейронов,   и   внешних   входных   сигналов.    Нелинейный
   преобразователь реализует нелинейную функцию одного  аргумента  -  выхода
   сумматора. Эта функция называется "функция активации"  или  "передаточная
   функция" нейрона. Нейрон в целом реализует скалярную  функцию  векторного
   аргумента.



Математическая модель нейрона:

                                  [pic] (1)

                               [pic]       (2)

где
wi - вес синапса (weight), (i=0,1,2...p);
w0 - значение смещения (bias);
s - результат суммирования (sum);
xi - компонента входного вектора (входной сигнал), (i=1,2,...p);
y - выходной сигнал нейрона;
p- число входов нейрона;
f - нелинейное преобразование (функция активации).

    В общем случае входной сигнал, весовые коэффициенты и значения смещения
могут  принимать  действительные  значения.  Выход  (y)  определяется  видом
функции активации и может быть как действительным, так и  целым.  Во  многих
практических задачах входы, веса и смещения могут принимать  лишь  некоторые
фиксированные значения.
    Синаптические связи с положительными весами называют  возбуждающими,  с
отрицательными весами - тормозящими.
    Таким  образом,  нейрон  полностью  описывается  своими  весами  wi   и
передаточной функцией f(x). Получив  набор  чисел  (вектор)  xk  в  качестве
входов, нейрон выдает некоторое число y на выходе.
    Эта модель была предложена Маккалоком и Питтсом еще в 1943 г. При  этом
использовались  пороговые  передаточные  функции  (рис.   2a),   и   правила
формирования выходного сигнала y выглядели особенно просто:
                           [pic]               (3)

    В 1960 г. на основе таких нейронов Розенблатт построил  первый  в  мире
автомат для распознавания изображений букв, который был назван  “перcептрон”
(perception — восприятие).  Этот  автомат  имел  очень  простую  однослойную
структуру и мог решать только относительно простые (линейные) задачи. С  тех
пор были изучены  и  более  сложные  системы  из  нейронов,  использующие  в
качестве передаточных сложные непрерывные функции. Одна  из  наиболее  часто
используемых передаточных функций называется сигмоидной (или  логистической)
(рис. 2б) и задается формулой
                             [pic]          (4)



Нейронная сеть.
    Нейронная сеть — это набор  нейронов,  определенным  образом  связанных
между  собой.  Как  правило,  передаточные  функции  всех  нейронов  в  сети
фиксированы, а веса являются параметрами сети и могут изменяться.
    Одними из  наиболее  распространенных  являются  многослойные  сети,  в
которых нейроны объединены в  слои.  Слой  -  это  совокупность  нейронов  c
единым входным сигналом.  В  качестве  основного  примера  рассмотрим  сеть,
которая достаточно проста по структуре и в то же время  широко  используется
для решения прикладных задач — двухслойный персептрон с p  входами  и  одним
выходом (рис. 2.3).



    Как следует из названия, эта сеть состоит  из  двух  слоев.  Собственно
нейроны располагаются в  первом  (скрытом)  и  во  втором  (выходном)  слое.
Входной слой (также его называют нулевым или «вырожденным») только  передает
входные сигналы ко всем H нейронам  первого  слоя  (здесь  H  =  4).  Каждый
нейрон первого слоя имеет p  входов,  которым  приписаны  веса  wi0,wi1,wi2,
..., wip (для нейрона с номером i). Веса wi0 и v0 соответствуют  смещению  b
в описании формального нейрона,  которое  приведено  выше.  Получив  входные
сигналы, нейрон суммирует их с соответствующими весами,  затем  применяет  к
этой сумме передаточную функцию и пересылает результат  на  один  из  входов
нейрона второго («выходного») слоя. В свою очередь,  нейрон  выходного  слоя
суммирует полученные от первого слоя сигналы с некоторыми весами vi.
    Итак, подавая на входы персептрона любые числа  x1,  x2,  ...,  xp,  мы
получим на выходе значение некоторой функции F(x1,  x2,  ...,  xp),  которое
является ответом (реакцией) сети. Очевидно, что ответ сети  зависит  как  от
входного сигнала, так и от значений ее весовых коэффициентов.
    Выпишем точный вид этой функции
                                  [pic] (5)
    Кроме многослойных нейронных сетей существуют и  другие  разновидности,
каждая из которых разработаны и применяются для  решения  конкретных  задач.
Из них можно выделить
 . полносвязные сети, в которых каждый нейрон связан со всеми остальными (на
   входы каждого нейрона подаются выходные сигналы остальных нейронов);
 . сети с обратными  связями  (рекуррентные).  В  них  определенным  образом
   выходы с последующих слоев нейронов подаются на вход предыдущим.

    Разобравшись  с  тем,  из  чего  состоят  нейронные  сети,  и  как  они
функционируют, перейдем к вопросу "как создать сеть,
 адаптированную     для      решения
поставленной задачи?".  Этот  вопрос
решается  в  два  этапа:  (рис. 1.4)
1. Выбор типа (архитектуры) сети
2. Подбор весов (обучение) сети.


    На первом этапе следует выбрать следующее:
 . какие нейроны мы хотим использовать (число входов, передаточные функции);

 . каким образом следует соединить их между собой;
 . что взять в качестве входов и выходов сети.

    Эта задача  на  первый  взгляд  кажется  необозримой,  но,  к  счастью,
необязательно  придумывать  нейросеть  "с  нуля"  -   существует   несколько
десятков различных нейросетевых архитектур, причем эффективность  многих  из
них доказана математически. Наиболее популярные и  изученные  архитектуры  -
это многослойный персептрон, нейросеть с общей регрессией, сети  Кохонена  и
другие.
    На втором этапе следует "обучить" выбранную  сеть,  то  есть  подобрать
такие значения ее весов, чтобы сеть  работала  нужным  образом.  Необученная
сеть подобна ребенку - ее можно  научить  чему  угодно.  В  используемых  на
практике нейросетях количество весов  может  составлять  несколько  десятков
тысяч,  поэтому  обучение  -  действительно  сложный  процесс.  Для   многих
архитектур разработаны специальные  алгоритмы  обучения,  которые  позволяют
настроить веса сети определенным образом.

Обучение нейросети.
    Обучить нейросеть - значит, сообщить ей, чего  мы  от  нее  добиваемся.
Этот процесс очень похож  на  обучение  ребенка  алфавиту.  Показав  ребенку
изображение буквы "А", мы спрашиваем его:  "Какая  это  буква?"  Если  ответ
неверен, мы сообщаем ребенку  тот  ответ,  который  мы  хотели  бы  от  него
получить: "Это буква А". Ребенок запоминает  этот  пример  вместе  с  верным
ответом, то есть в  его  памяти  происходят  некоторые  изменения  в  нужном
направлении. Мы будем повторять процесс предъявления букв снова и  снова  до
тех пор, когда все 33 буквы будут твердо запомнены. Такой  процесс  называют
"обучение с учителем".
    При обучении сети мы  действуем  совершенно  аналогично.  Пусть  у  нас
имеется  некоторая  база  данных,  содержащая  примеры  из  разных  классов,
которые необходимо  научиться  распознавать  (набор  рукописных  изображений
букв). Предъявляя изображение буквы "А" на вход сети,  мы  получаем  от  нее
некоторый ответ, не обязательно верный. Нам  известен  и  верный  (желаемый)
ответ - в данном случае нам хотелось  бы,  чтобы  на  выходе  с  меткой  "А"
уровень сигнала был максимален. Обычно в качестве желаемого выхода в  задаче
классификации берут набор (1,0,0,...), где 1 стоит на выходе с  меткой  "А",
а 0 - на всех остальных выходах. Вычисляя разность между желаемым ответом  и
реальным ответом сети, мы получаем 33 числа - вектор ошибки. Далее  применяя
различные алгоритмы по вектору  ошибки   вычисляем  требуемые  поправки  для
весов сети. Одну и ту же букву (а также различные изображения  одной  и  той
же буквы) мы можем предъявлять  сети  много  раз.  В  этом  смысле  обучение
скорее напоминает повторение упражнений в спорте - тренировку.
    Оказывается, что после многократного предъявления  примеров  веса  сети
стабилизируются, причем сеть дает правильные ответы на все (или  почти  все)
примеры из базы данных. В  таком  случае  говорят,  что  "сеть  выучила  все
примеры",  "  сеть  обучена",  или  "сеть  натренирована".   В   программных
реализациях можно видеть, что в процессе  обучения  величина  ошибки  (сумма
квадратов ошибок по всем выходам)  постепенно  уменьшается.  Когда  величина
ошибки  достигает   нуля   или   приемлемого   малого   уровня,   тренировку
останавливают,  а  полученную  сеть  считают  натренированной  и  готовой  к
применению на новых данных. Схематично процесс обучения представлен  на  рис
1.5.



    Важно отметить, что  вся  информация,  которую  сеть  имеет  о  задаче,
содержится в  наборе  примеров.  Поэтому  качество  обучения  сети  напрямую
зависит от количества  примеров  в  обучающей  выборке,  а  также  от  того,
насколько  полно  эти  примеры  описывают  данную  задачу.  Так,   например,
бессмысленно  использовать  сеть  для  распознавания  буквы  “A”,   если   в
обучающей выборке она не была представлена. Считается, что  для  полноценной
тренировки требуется хотя бы несколько десятков (а  лучше  сотен)  примеров.
Повторим еще  раз,  что  обучение  сети  -  сложный  и  наукоемкий  процесс.
Алгоритмы обучения имеют различные параметры  и  настройки,  для  управления
которыми требуется понимание их влияния.
Применение нейросети.
    После того, как  сеть  обучена,  ее  можно  применять  ее  для  решения
поставленной задачи (рис 1.4).  Важнейшая  особенность  человеческого  мозга
состоит в том, что, однажды  обучившись  определенному  процессу,  он  может
верно действовать и в тех ситуациях,  в  которых  он  не  бывал  в  процессе
обучения. Например, можно читать почти любой почерк,  даже  если  видим  его
первый раз в жизни. Так же и нейросеть, грамотным образом  обученная,  может
с большой вероятностью правильно реагировать на новые, не  предъявленные  ей
ранее данные. Например, мы можем нарисовать букву  "А"  другим  почерком,  а
затем  предложить  нашей  сети  классифицировать  новое  изображение.   Веса
обученной сети хранят достаточно много информации  о  сходстве  и  различиях
букв, поэтому можно рассчитывать на правильный ответ и для  нового  варианта
изображения

Примеры практического применения нейронных сетей.
    В качестве примеров рассмотрим наиболее  известные  классы  задач,  для
решения  которых  в  настоящее   время   широко   применяются   нейросетевые
технологии.

Прогнозирование.
    Прогноз будущих значений переменной, зависящей от  времени,  на  основе
предыдущих значений ее и/или других переменных. В  финансовой  области,  это
,например, прогнозирование курса акций на 1 день вперед,
или прогнозирование изменения курса валют на определен
ный период времени и т.д.. (рис 1.6)

Распознавание или классификация.
    Определение,  к  какому  из  заранее  известных   классов   принадлежит
тестируемый объект. Следует отметить, что задачи классификации  очень  плохо
алгоритмизируются. Если в случае распознавания букв  верный  ответ  очевиден
для  нас  заранее,  то  в  более  сложных  практических  задачах   обученная
нейросеть выступает как эксперт, обладающий большим опытом и способный  дать
ответ на трудный вопрос.
    Примером такой задачи служит
медицинская диагностика, где сеть может
учитывать большое количество числовых
параметров (энцефалограмма, давление, вес и т.д.).
Конечно, "мнение" сети в этом случае нельзя
считать окончательным.
      Классификация предприятий по степени их перспективности  (рис  1.8)  -
это  уже  привычный  способ  использования  нейросетей  в  практике  крупных
компаний. При этом сеть также использует множество
 экономических показателей,
 сложным образом связанных
между собой.


Кластеризацию и поиск закономерностей.
    Помимо задач классификации, нейросети широко  используются  для  поиска
зависимостей в данных и кластеризации.
    Например, нейросеть на основе методики  МГУА  (метод  группового  учета
аргументов) позволяет на  основе  обучающей  выборки  построить  зависимость
одного параметра от других в виде полинома (рис. 1.9). Такая сеть  может  не
только мгновенно выучить таблицу  умножения,  но  и  найти  сложные  скрытые
зависимости в  данных  (например,  финансовых),  которые  не  обнаруживаются
стандартными статистическими методами.



    Кластеризация - это разбиение набора примеров на  несколько  компактных
областей  (кластеров),  причем  число  кластеров  заранее  неизвестно  (рис.
1.10). Кластеризация  позволяет  представить  неоднородные  данные  в  более
наглядном виде  и  использовать  далее  для  исследования  каждого  кластера
различные   методы.   Например,   таким   образом   можно   быстро   выявить
фальсифицированные страховые случаи или недобросовестные предприятия.



    Несмотря на большие возможности, существует  ряд  недостатков,  которые
все  же  ограничивают   применение   нейросетевых   технологий.   Во-первых,
нейронные  сети   позволяют   найти   только   субоптимальное   решение,   и
соответственно они  неприменимы  для  задач,  в  которых  требуется  высокая
точность. Функционируя по принципу черного ящика, они  также  неприменимы  в
случае, когда  необходимо  объяснить  причину  принятия  решения.  Обученная
нейросеть  выдает  ответ  за  доли  секунд,  однако   относительно   высокая
вычислительная стоимость процесса обучения как по времени, так и  по  объему
занимаемой   памяти   также   существенно   ограничивает   возможности    их
использования. И все же класс задач, для решения которых эти ограничения  не
критичны, достаточно широк.
          2. Постановка задачи классификации сейсмических сигналов.

    Международная система мониторинга (МСМ),  сформировавшаяся  в  мире  за
последние  десятилетия,  предназначена   для   наблюдения   за   сейсмически
активными регионами. Основная  часть  информации  фиксируется  на  одиночных
сейсмических  станциях.  Дальнейшая  обработка  этой  информации   позволяет
оценить различные физические параметры, характеризующие записанное  событие.
Соответственно чем информативнее записанный сигнал, тем больше  всевозможных
параметров можно определить и точнее. Относительно  недавно  для  наблюдения
стали использовать группы сейсмических станций. Наиболее широкое  применение
получили малоапертурные группы с диаметром  приблизительно  3  км.  за  счет
того, что в этом случае можно пренебречь искажениями  сигнала,  возникающими
из-за неоднородности земной поверхности.
  Причина использования сейсмических групп также заключается в том, что при
таком методе наблюдения можно применять  специальные  алгоритмы  комплексной
обработки регистрируемой многоканальной сейсмограммы,  которые  обеспечивают
лучшее качество оценки  параметров  записанной  информации,  в  сравнении  с
одиночными сейсмическими станциями.
  Одна из многочисленных задач, возникающих при  региональном  мониторинге,
это  задача  идентификации   типа   сейсмического   источника   или   задача
классификации  сейсмических  сигналов.  Она  состоит   в   том,   чтобы   по
сейсмограмме  определить  причину  возникновения  зафиксированного  события,
т.е. различить взрыв и землетрясение. Ее решение предусматривает  разработку
определенного   метода   (решающего   правила),   который   с   определенной
вероятностью мог бы отнести записанное событие к одному из двух классов.  На
рис.2.1 представлена схема постановки задачи.



    Для  решения  этой  задачи  в  настоящее  время  применяются  различные
аналитические  методы  из  теории  статистического  анализа,  позволяющие  с
высокой вероятностью правильно классифицировать  данные.  Как  правило,  для
конкретного региона существует своя  база  данных  записанных  событий.  Она
включает в себя пример сейсмограмм характеризующих как землетрясения, так  и
взрывы  произошедшие  в  этом  регионе  с  момента  начала  наблюдения.  Все
существующие методы идентификации используют  эту  базу  данных  в  качестве
обучающего множества, тем самым, улавливая тонкие различия  характерные  для
данного региона, методы, настраивают определенным образом свои  параметры  и
в итоге учатся классифицировать все обучающее множество на принадлежность  к
одному из двух классов.
    Один из наиболее точных методов основан  на  выделении  дискриминантных
признаков из сейсмограмм и последующей классификации  векторов  признаков  с
помощью  статистических  решающих   правил.   Размерность   таких   векторов
соответствует количеству признаков, используемых для  идентификации  и,  как
правило, не превышает нескольких десятков.
    Математическая  постановка  в  этом  случае  формулируется  как  задача
разделения по обучающей выборке двух классов и  ставится  так:  имеется  два
набора векторов (каждый вектор размерности N): X1,…,Xp1 и  Y1,…Yp2.  Заранее
известно, что Xi (i=1,…,p1) относится к первому классу, а Yj  (j=1,…,p2)   -
ко второму. Требуется построить  решающее  правило,  т.е.  определить  такую
функцию f, что при f(x) > 0 вектор x относился бы к первому  классу,  а  при
f(x) < 0 - ко второму, где x({X1,…, Xp1, Y1,…, Yp2}.

          3. Статистическая методика решения задачи классификации.

    В   данном   разделе   рассматривается   методика   определения   типов
сейсмических событий, основанная на выделении дискриминантных  признаков  из
сейсмограмм  и  последующей  классификации  векторов  признаков  с   помощью
статистических решающих правил.[8]
3.1 Выделение информационных признаков из сейсмограмм.
    Исходные данные представлены  в  виде  сейсмограмм  (рис.  3.1)  –  это
временное отображение колебаний земной поверхности.



    В таком виде анализировать информацию, оценивать  различные  физические
характеристики  зафиксированного  события  достаточно   трудно.   Существуют
различные  методы,  специально  предназначенные  для   обработки   сигналов,
которые позволяют выделять определенные признаки, и, в  дальнейшем,  по  ним
производить анализ записанного события.
    Как  правило,  в  большинстве  из  этих  методов  на  начальном   этапе
выполняется следующий  набор операций:
1.  Из  всей  сейсмограммы  выделяется  часть  («временное  окно»),  которое
   содержит  информацию  о  какой-то  отдельной  составляющей  сейсмического
   события, например, только о P-волне.
2. Для выделенных данных последовательно применяется такие процедуры как:
   а) Быстрое (дискретное) преобразование Фурье (БПФ);
   б) Затем накладываются характеристики определенного  фильтра,  например,
      фильтра Гаусса.
   в) Обратное  преобразование  Фурье   (ОБПФ),  для  того  чтобы  получить
      отфильтрованный сигнал.

    Далее, применяются различные алгоритмы для  формирования  определенного
признака. В частности, можно легко найти  максимальную  амплитуду  колебания
сигнала, характеристику  определяемую  выражением  max{peakMax  –  peakMin}.
Определив данный параметр для частоты f1  допустим для P волны, а также  для
частоты  f2  для  S  волны  можно  найти  их  отношение  P(f1   )/S(f2),   и
использовать его в качестве дискриминационного признака.
    Применяя 

назад |  1  | вперед


Назад


Новые поступления

Украинский Зеленый Портал Рефератик создан с целью поуляризации украинской культуры и облегчения поиска учебных материалов для украинских школьников, а также студентов и аспирантов украинских ВУЗов. Все материалы, опубликованные на сайте взяты из открытых источников. Однако, следует помнить, что тексты, опубликованных работ в первую очередь принадлежат их авторам. Используя материалы, размещенные на сайте, пожалуйста, давайте ссылку на название публикации и ее автора.

281311062 © il.lusion,2007г.
Карта сайта