Форум программистов, компьютерный форум, киберфорум
Статистика, теория вероятностей
Войти
Регистрация
Восстановить пароль
Карта форума Темы раздела Блоги Сообщество Поиск Заказать работу  
 
Рейтинг 4.91/11: Рейтинг темы: голосов - 11, средняя оценка - 4.91
0 / 0 / 0
Регистрация: 19.09.2018
Сообщений: 32
1

Теория информации, энтропия

20.02.2019, 18:27. Показов 2003. Ответов 1
Метки нет (Все метки)

Author24 — интернет-сервис помощи студентам
Один опыт состоит в том, что внутри круга случайно ставится точка, которая может попасть или не попасть в правильный треугольник, вписанный в этот круг. В другом опыте точка ставится случайно внутри правильного треугольника и может оказаться внутри или вне вписанного в этот треугольник круга. Какой опыт является более неопределенным?
0
Programming
Эксперт
94731 / 64177 / 26122
Регистрация: 12.04.2006
Сообщений: 116,782
20.02.2019, 18:27
Ответы с готовыми решениями:

Энтропия по теории информации: найти энтропию марковского источника, если дана матрица переходных вероятностей
Как найти энтропию марковского источника,если дана матрица переходных вероятностей!!По какой...

Теория информации.Энтропия и ее свойства
Есть две задачки...Может поможет кто решить..

Энтропия источника информации
Помоги, пожалуйста. Определить энтропию источника информации. Источник расположен в файле...

Количество информации. Энтропия
В алфавите m символов. В сообщении n символов. Определите – количество всевозможных сообщений...

1
Эксперт по математике/физике
6358 / 4065 / 1512
Регистрация: 09.10.2009
Сообщений: 7,550
Записей в блоге: 4
20.02.2019, 19:23 2
Для начала надо в каждом случае посчитать вероятность p попасть во внутреннюю фигуру, дальше вычислить энтропию https://www.cyberforum.ru/cgi-bin/latex.cgi?H=-p \log _2 p-\left(1-p \right) \log _2 \left(1-p \right). Слагаемых два, так как в каждом случае два состояния - попадание или не попадание точки в внутреннюю фигуру.
Энтропия Н оказывается равной в первом случае 0,9783 , во втором 0,9682. Более неопределённый опыт тот, в котором энтропия больше, то есть первый.
Вообще, если у системы всего 2 состояния, то график зависимости H(p) напоминает по форме полуэллипс https://www.cyberforum.ru/cgi-bin/latex.cgi?\frac{\left(p-0,5 \right)^2}{0,5^2}+\frac{H^2}{1^2}=1, только немного суженный к прямой p=0,5, где энтропия максимальна: H(0,5)=1, то есть где неопределённость выше всего. Чем ближе p к 0 или к 1, тем ближе H(p) к 0, то есть неопределённость ниже.
1
20.02.2019, 19:23
IT_Exp
Эксперт
87844 / 49110 / 22898
Регистрация: 17.06.2006
Сообщений: 92,604
20.02.2019, 19:23
Помогаю со студенческими работами здесь

Теория информации. Измерение количества информации
Всем привет, есть вот такое вот задание, очень интересное, единственный нюанс, сделать нужно очень...

Теория информации
Вопрос на экзамен такой: Вычисление показателя экспоненты случайного кодирования для двоичного...

Теория информации
. 1.Посчитать во сколько раз сжатие которое дает алгоритм Хаффмена для распределения...

теория информации
Подскажите пожалуйста, как решать такую задачу. Даны трехзначные числа, у которых совпалают две...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
2
Ответ Создать тему
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin
Copyright ©2000 - 2024, CyberForum.ru