Производные единицы измерения количества информации
Бит (Binary DigiT - двойная цифра)
В теории информации – наименьшая единица количества информации. В вычислительной технике – двоичная цифра (может принимать значения 0 и 1), двоичный разряд.
За единицу измерения количества информации принято такое количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза. Такая единица названа бит.
Байт (Byte)
В теории информации – восемь подряд идущих бит. В вычислительной технике – наименьшая адресуемая единица данных или памяти, равная восьми битам.
Байт, килобайт, мегабайт, …
Название Байт Кбайт Мбайт Гбайт
Килобайт, Кбайт
210 = 1024
Мегабайт, Мбайт
220 = 1048576 210 = 1024
Гигабайт, Гбайт
230 220 = 1048576 210 = 1024
Терабайт, Тбайт
240 230 220 = 1048576 210 = 1024
Петабайт, Пбайт
250 240 230 220 = 1048576
Эксабайт, Эбайт
260 250 240 230
Зеттабайт, Збайт
270 260 250 240
Йоттабайт, Йбайт
280 270 260 250
Связь между единицами измерения
Бит
Байт
Кбайт
Мбайт
Гбайт
:8
:1024
:1024
:1024
×1024
×1024
×1024
×8
Количество информации
Процесс познания приводит к накоплению информации (знаний), то есть к уменьшению незнания.
Измерить объём накопленных знаний нельзя, а вот оценить уменьшение незнания можно, если известно количество возможных вариантов исходного состояния.
Подходы к измерению информации
Алфавитный(объемный)
Содержательный (вероятностный)
Через неопределенность знаний с учетом вероятности событий.
Применяется для измерения информации, используемой человеком.
Через количество символов с учетом информационного веса символа.
Применяется для измерения информации, используемой компьютером.
Измерение
Пример
Представьте, что вы зашли в магазин и попросили продать вам жевательную резинку. Продавщица, у которой, скажем, 16 сортов жевательной резинки, находится в состоянии неопределенности. Она не может выполнить вашу просьбу без получения дополнительной информации.
Если вы уточнили, скажем, - «Orbit», и из 16 первоначальных вариантов продавщица рассматривает теперь только 8, вы уменьшили ее неопределенность в два раза (забегая вперед, скажем, что уменьшение неопределенности вдвое соответствует получению 1 бита информации).
Если вы, не мудрствуя лукаво, просто указали пальцем на витрине, - «вот эту!», то неопределенность была снята полностью. Опять же, забегая вперед, скажем, что этим жестом в данном примере вы сообщили продавщице 4 бита информации.
http://www.klyaksa.net/htm/kopilka/uchp/index.htm
Попова Ольга Владимировна, Информатика
Содержательный (вероятностный) подход
Содержательный (вероятностный)
Через неопределенность знаний с учетом вероятности событий
Количество информации рассматривается как мера уменьшения неопределенности знания при получении информационных сообщений.
За единицу измерения количества информации принято такое количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза.
Бит (от binary digit -
двоичная цифра) Бит (от binary digit -
двоичная цифра)
Формула Ральфа Хартли
N - количество возможных событий (информационная неопределенность)
I - количество информации (количество бит необходимых для кодирования одного события)
N = 2I
Формула позволяет определять:
Количество событий
?Количество информации
Количество информации
?Количество возможных событий
Задачи 1
Учитель объявляет результаты зачета: одно из двух – «зачет», «незачет».
Сколько возможных событий может произойти?Какова информационная неопределенность сообщения?
N = 2IДано:N = 2 – количество возможных событий
I = ?
2 = 2 I I = 1 бит – количество информации
Задачи 2
Учитель объявляет результаты зачета: одно из четырех – «2», «3», «4», «5».
Сколько возможных событий может произойти?Каково количество информации несет сообщение?
N = 2IДано:N = 4 – количество возможных событий
I = ?
4 = 2 I I = 2 бит – количество информации
Задачи 3
Игра крестики-нолики. Поле 8 х 8. Сколько бит необходимо для представления информации о возможных вариантах постановки «крестика» перед первым ходом?
N = 2IДано:N = 64 – количество возможных событий
I = ?
64 = 2 I I = 6 бит – количество информации
Задачи 4
Игра крестики-нолики. Поле 8 х 8. Сколько бит необходимо для представления информации о возможных вариантах постановки «крестика» после 35 хода?
N = 2IДано:N = 64 – 35 = 29 – количество возможных событий
I = ?
2 I 29
I = 5 бит – количество информации
Задачи 5
Сколько бит информации получено из сообщения «Вася живёт на пятом этаже», если в доме 16 этажей?
N = 2IДаноN = 16 – количество возможных событий
I = ?
I = 5 бит – количество информации
Задачи 6
При приёме некоторого сообщения получили 7 бит информации. Сколько вариантов исхода было до получения сообщения?
N = 2IДаноI = 7 – количество информации
N = ?
N = 27 – количество возможных событийN = 128
Задачи на дом
1. Шарик находится в одной из 32 урн. Сколько единиц информации будет содержать сообщение о том, где он находится?
2. После реализации одного из возможных событий получили количество информации равное 15 бит. Какое количество возможных событий было первоначально?
3. При угадывании целого числа в диапазоне от 1 до N было получено 10 битов информации. Чему равно N?
Алфавитный (объёмный) подход
При определении количества информации, отвлекаются от содержания информации и рассматривают информационное сообщение как последовательность символов определенной знаковой системы.
Объем информации связан с общим числом символов и «мощностью» алфавита («информационная емкость» символа) и не учитывает содержание сообщения.
Алфавитный(объемный)
Через количество символов с учетом информационного веса символа
Формула Ральфа Хартли
N – мощность алфавита (количество знаков в алфавите)
I – информационная ёмкость символа (количество информации, которое несет один знак)
N = 2I
Мощность русского алфавита – 33 знака
Информационная емкость буквы в русском алфавите составляет:2 I 33, т.е. I = 6 бит
Количество информации в сообщении
P – количество информации в сообщении
I – информационная ёмкость символа (количество информации, которое несет один знак)
K – длина сообщения
Примечание Знаки несут одинаковое количество информации.
P = IK
Задачи 6
Алфавит племени Мумбо-Юмбо составляет 6 символов. Сколько битов информации содержится в слове длиной в 12 символов.
N = 2I
Дано:N = 6 – мощность алфавитаK = 12 символов – длина сообщения
P - ?
2 I 6
I = 3 бита – информационная ёмкость символа
P = IK P = 3 12 = 36 бит – количество информации в сообщении
Задачи на дом
1. Объем сообщения равен 300 бит. Сообщение содержит 50 символов. Какова мощность алфавита?
2. Для кодирования секретного сообщения используются 12 специальных значков-символов. При этом символы кодируются одним и тем же минимально возможным количеством бит. Чему равен информационный объем сообщения длиной в 256 символов?
Формула Ральфа Хартли
N – количество цветов (палитра)
I – глубина цвета (количество информации, которое несет один цвет)
N = 2I
Палитра содержит 60 цветов.
Глубина цвета этой палитры составляет:2 I 60, т.е. I = 6 бит
Объём изображения
P – объём изображения
I – глубина цвета в битах
M × L – разрешение изображения (в пикселях)
P = IML
L
M
Задачи 6
Изображение размером 640х320 пикселей представлено 128 цветной палитрой. Каков объём этого изображения?
N = 2I
Дано:N = 128 – цветов в палитреM×L = 640×320 пикселей – разрешение
P - ?
2 I 128
I = 7 битов – глубина цвета
P = IML P = 7 640 320 = 1433600 бит = 175 Кбайт
Объём видеопамяти
P – объём видеопамяти
I – глубина цвета в битах
M×L – разрешение монитора (в пикселях)
C – количество видеостраниц
P = IMLС
L
M
Формула Ральфа Хартли
N – количество уровней звукового сигнала
I – глубина звука (информационная ёмкость)N = 2I
© Ю.А. Чиркин МОУ СОШ №19 г. Мичуринск, 2009-2010Расчёт объёма звукового файла
P – размер (объём) звукового файла (в битах)I – глубина кодирования (в битах)
V – частота дискретизации (в Герцах)
C – количество дорожек в записи (C=1 – моно, C=2 – стерео)T – время звучания (в секундах)
P = IVCT
Задачи 7
Дано:I = 16 битV = 44,1 КГцT = 3 мин 18 секС = 2
P - ?
44,1 КГц = 44100 Гц3 мин 18 с = 198 секP = IV C T = 2·44100 Гц·16 бит·198 сек = = 279417600 бит = 34927200 байт ≈ 34108,6 Кб ≈ 33,3 Мб
P = IVCT
Определить объём звукового стерео файла записанного разрядностью 16 бит с частотой дискретизации 44,1 КГц, если время его звучания составляет 3 мин 18 сек.
Подходы к измерению информации
Алфавитный(объемный)
Содержательный (вероятностный)
Через неопределенность знаний с учетом вероятности событий
Через количество символов с учетом информационного веса символа
Измерение
Количество информации (I)
Информационная емкость символа, глубина цвета, глубина звука (I)
N = 2 I N = 2 I
Количество возможных событий (N)
Мощность алфавита, палитра, количество уровней звукового сигнала (N)
N = 2 I N = 2 I
Количество информации (P)
P = IK P = IMLC P = IVCT