Урок 9.09.23 1. Записать презентацию в тетрадь. 2. Задания 1-4 ответить и записать в тетрадь
Формула Хартли. Информация и вероятность. Формула Шеннона
ЕДИНИЦЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИ
ВЕРОЯТНОСТНЫЙ ПОДХОД
Рассмотрим задачу определения количества информации, необходимой для угадывания числа (5) из диапазона 1-16
Задание 1 (работа в тетради)
ФОРМУЛЫ:
ФОРМУЛЫ:
Задание 2 (работа в тетради)
Задание 3 (работа в тетради)
Задание 4 (работа в тетради)
1.15M
Category: informaticsinformatics

Формула Хартли. Информация и вероятность. Формула Шеннона

1. Урок 9.09.23 1. Записать презентацию в тетрадь. 2. Задания 1-4 ответить и записать в тетрадь

2. Формула Хартли. Информация и вероятность. Формула Шеннона

3.

Содержательный
подход
Подходы к
измерению
информации
Вероятностный
подход
Алфавитный
подход

4. ЕДИНИЦЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИ

1 байт = 23 бит = 8 бит
1 Кбайт = 210 байт = 1024 байт
1 Мбайт = 210 Кбайт = 1024 Кбайт
1 Гбайт = 210 Мбайт = 1024 Мбайт

5.

СОДЕРЖАТЕЛЬНЫЙ ПОДХОД
Сообщение информативно, если
в нем содержатся новые и
понятные сведения.
Чем больше информативность,
тем большее количество
информации содержится в
сообщении.

6. ВЕРОЯТНОСТНЫЙ ПОДХОД

Информация для человека — это
знания
незнание
знание
ЗНАНИЕ
Информация, которую получает человек, приводит к
уменьшению неопределенности знаний.

7.

События равновероятны, если ни
одно из них не имеет преимущества
перед другим.
Возможные события.
Они равновероятны
Произошедшее событие

8.

Сообщение, уменьшающее
неопределенность знаний
человека в два раза, несет для
него 1 бит информации.

9. Рассмотрим задачу определения количества информации, необходимой для угадывания числа (5) из диапазона 1-16

Вопрос
Ответ
Неопределенность
знаний
Полученное
кол-во
информации
Число больше 8?
нет
8
1 бит
Число больше 4?
да
4
1 бит
Число больше 6?
нет
2
1 бит
Число 5?
да
1
1 бит
Итого
4 бита
Вывод: количество информации, необходимое для
угадывания одного из 16 чисел равно 4 бита.

10. Задание 1 (работа в тетради)

Сколько равновероятных событий может произойти при
бросании равносторонней четырехгранной пирамидки,
шестигранного куба? Заполните таблицу.
Количество возможных
событий
Количество
полученной
информации

11. ФОРМУЛЫ:

Формула Хартли (получена в 1928 году).
i log 2 N
i – количество информации
N – количество равновероятных
событий

12. ФОРМУЛЫ:

K
Р
N
1
i log 2
P
N – общее число возможных исходов какого-то
процесса
К – сколько раз может произойти интересующее
событие
Р – вероятность этого события
Количественная зависимость между
вероятностью события (Р) и количеством
информации (i) в сообщении о нем.
Количеством информации для событий с разными
вероятностями.
N
i Pi log 2 Pi
i 1
Формула Шеннона

13. Задание 2 (работа в тетради)

Вычислите количество
информации в сообщении о том,
что из колоды карт случайным
образом достали туз червей.

14.

ЗАДАЧА.
Сообщение о том, что ваш друг живет
на десятом этаже несет в себе 4 бита
информации. Сколько этажей в доме?
РЕШЕНИЕ:
i
N=2
i = 4 бита
N = 24 = 16
Ответ: 16 этажей в доме.

15.

ЗАДАЧА.
Какое количество информации о цвете вынутого шарика
будет получено, если в непрозрачном пакете хранятся:
10 белых, 20 красных, 30 синих и 40 зеленых шариков?
N
i Pi log 2 Pi
i 1
РЕШЕНИЕ:
N = 10+20+30+40 = 100
Pбел. = 10/100 = 0,1
Pсин. = 30/100 = 0,3
Pкрасн. = 20/100 = 0,2
Pзел. = 40/100 = 0,4
i (0.1 log 2 0.1 0.2 log 2 0.2 0.3 log 2 0.3 0.4 log 2 0.4) 1.85
Ответ: 1,85 бит

16. Задание 3 (работа в тетради)

Заполните пропуски числами:
5 Кбайт = __ байт = __ бит
__ Кбайт = __ байт = 12288 бит
__ Кбайт = __ байт = 213 бит
__ Гбайт = 1536 Мбайт = __ Кбайт
512 Кбайт = 2? байт = 2? бит

17.

АЛФАВИТНЫЙ ПОДХОД
Позволяет определить количество
информации в тексте, отвлекаясь от
содержания информации, воспринимая
ее как последовательность знаков.
Алфавит – множество символов,
используемых для записи текста.
Мощность алфавита – полное
количество символов в алфавите.

18.

Если допустить, что все символы алфавита
встречаются в тексте с одинаковой частотой
(равновероятно), то для определения
количества информации можно
воспользоваться формулой:
i
N=2
N – мощность алфавита,
i – количество информации, содержащейся в
одном символе алфавита.

19.

При алфавитном подходе объем
информации (I), содержащейся в
тексте, вычисляется по формуле:
I=К·i
К – количество символов в тексте,
i – информационный «вес» одного
символа.

20.

ЗАДАЧА
Для русского алфавита (без буквы ё):
Мощность алфавита (количество равновероятных
событий) N = 32,
Найти количество информации i, которое несет
каждый символ алфавита.
РЕШЕНИЕ:
i
32 = 2
i = 5 бит
Ответ: каждый символ алфавита несет 5 бит
информации.

21. Задание 4 (работа в тетради)

Какое количество
информации несет один
символ алфавита мощностью
2, 4, 8, 16, 256 символов?
English     Русский Rules