Вероятность, Информация, Классификация, Ломакин Д.В., Ломакина Л.С., Пожидаева А.С., 2014

Вероятность, Информация, Классификация, Ломакин Д.В., Ломакина Л.С., Пожидаева А.С., 2014.

  Рассматриваются базовые понятия теории вероятностей, теории информации и использование вероятностных и информационных методов в задачах диагностики сложных систем и в задачах обработки многомерных данных на примере классификации состояний биоценоза.
Учебное пособие предназначено для студентов, обучающихся по направлениям: 230100 «Информатика и вычислительная техника» и 230400 «Информационные системы и технологии».

Вероятность, Информация, Классификация, Ломакин Д.В., Ломакина Л.С., Пожидаева А.С., 2014


ВЕРОЯТНОСТЬ.
Основные понятия.
Каждая наука начинается с определения объекта и предмета исследования, построения модели объекта, системы аксиом и с формирования основных понятий, на которых она базируется [1, 3, 4, 5, 7]. Поскольку определить понятие - это значит свести его к другим, более известным понятиям, то, очевидно, процесс должен где-то закончиться. Поэтому всегда существуют первичные понятия, которые строго не определяются, а только поясняются. Одним из таких понятий является понятие события.

В теории вероятностей объект исследования - это случайные явления различной физической природы.
Предметом теории вероятностей является математический анализ случайных явлений, выявление закономерностей в самих случайных явлениях независимо от их конкретной природы.

Событие - это любой факт, который может произойти при заданном комплексе условий D.
Достоверное событие - это событие, которое всегда происходит при заданном комплексе условий D.
Невозможное событие - это событие, которое никогда не происходит при заданном комплексе условий D.
Случайное событие - это событие, которое может произойти, а может и не произойти при заданном комплексе условий D.

ОГЛАВЛЕНИЕ.
ВВЕДЕНИЕ.
1. ВЕРОЯТНОСТЬ.
1.1. Основные понятия.
1.2. Классический метод вычисления вероятностей.
1.3. Вычисление условной вероятности.
1.4. Формула полной вероятности и формула Байеса.
1.5. Выборка без возвращения и с возвращением.
1.6. Нелинейное преобразование случайных величин.
1.6.1. Закон распределения Релея.
1.6.2. Геометрическая интерпретация нелинейного преобразования случайной величины.
1.7. Функция регрессии.
1.7.1. Вывод выражения для функции регрессии.
1.7.2. Линейная функция регрессия.
2. МОДЕЛИРОВАНИЕ СЛУЧАЙНЫХ ВЕЛИЧИН.
2.1. Моделирование случайной величины с произвольно заданным законом распределения посредством нелинейного преобразования случайной величины с равномерным законом распределения.
2.2. Метод Неймана.
2.3. Моделирование случайной величины в случае приближенного задания ее закона распределения.
2.3.1. Аппроксимация с помощью случайных величин с равномерным законом распределения.
2.3.2. Аппроксимация с помощью случайной величины с треугольным законом распределения.
2.3.3. Моделирование случайной величины с нормальным (гауссовым) законом распределения.
3. МАТЕМАТИЧЕСКАЯ СТАТИСТИКА.
3.1. Сглаживание экспериментальных зависимостей по методу наименьших квадратов.
3.2. Оценка параметров закона распределения.
3.2.1. Метод максимального правдоподобия.
3.2.2. Метод моментов.
3.2.3. Интервальные оценки параметров.
3.3. Проверка статистических гипотез.
4. ИНФОРМАЦИЯ.
4.1. Модели, используемые в статистической теории информации.
4.2. Установление количественной меры информации.
4.2.1. Комбинаторное определение количества информации.
4.2.2. Определение количества информации по К. Шеннону.
4.2.3. Свойства энтропии.
4.2.4. Ценность информации.
4.2.5. Собственное количество информации и энтропия.
4.2.6. Взаимная информация.
4.3. Дискретные источники сообщений и их описание.
4.3.1. Эргодические источники.
4.3.2. Производительность дискретного источника сообщений.
4.3.3. Марковские источники сообщений.
4.4. Кодирование сообщений при передаче по каналу без помех.
4.4.1. Возможность оптимального (эффективного) кодирования.
4.4.2. Префиксные коды.
4.4.3. Неравенство Крафта.
4.4.4. Предельные возможности оптимального кодирования.
4.4.5. Алгоритмы эффективного кодирования.
4.5. Пропускная способность дискретного канала связи.
4.5.1. Определение пропускной способности канала.
4.5.2. Вычисление пропускной способности симметричных каналов.
4.5.3. Вычисление пропускной способности канала со стиранием.
4.6. Помехоустойчивое кодирование.
4.6.1. Теоремы К. Шеннона.
4.6.2. Линейные корректирующие коды.
4.7. Передача непрерывных сообщений.
4.7.1. Дискретизация непрерывных сообщений и сигналов.
4.7.2. Энтропия системы с непрерывным множеством состояний.
4.7.3. Экстремальные свойства энтропии.
4.7.4. Взаимная информация для систем с непрерывным множеством состояний.
4.7.5. Пропускная способность гауссова канала связи.
4.7.6. Эпсилон - энтропия.
4.8. Применение теории информации при синтезе контролепригодных систем.
4.8.1. Обобщённая вероятностно-структурная модель и стратегия определения состояния системы.
4.8.2. Информационная мера глубины диагностирования.
4.8.3. Оптимизация глубины диагностирования.
5. КЛАССИФИКАЦИЯ МНОГОМЕРНЫХ ДАННЫХ.
5.1. Постановка задачи.
5.2. Классификация состояний биоценоза.
СПИСОК РЕКОМЕНДУЕМОЙ ЛИТЕРАТУРЫ.



Бесплатно скачать электронную книгу в удобном формате, смотреть и читать:
Скачать книгу Вероятность, Информация, Классификация, Ломакин Д.В., Ломакина Л.С., Пожидаева А.С., 2014 - fileskachat.com, быстрое и бесплатное скачивание.

Скачать djvu
Ниже можно купить эту книгу по лучшей цене со скидкой с доставкой по всей России.Купить эту книгу



Скачать - djvu - Яндекс.Диск.
Дата публикации:





Теги: :: :: :: :: ::


Следующие учебники и книги:
Предыдущие статьи:


 


 

Книги, учебники, обучение по разделам




Не нашёл? Найди:





2024-11-24 06:34:39