1 информация данные информационный процесс кодирование и измерение информации
1 информация данные информационный процесс кодирование и измерение информации
Информация должна обладать следующими свойствами:
Алфавитный подход к измерению информации
Полное количество символов в алфавите называется мощностью алфавита (N).
Информационный вес одного символа – i.
Зависимость между мощностью алфавита и информационным весом символа записывается следующим образом: 2 i = N
Следовательно, можно сказать, что 1 бит – это информационный вес символа в двухсимвольного алфавита.
Алфавит состоящий из 256 символов:
1 байт = 2 3 = 8 бит
1 Килобайт = 2 10 = 1024 байт
1 Мегабайт = 2 10 = 1024 Килобайт
1 Гигабайт = 2 10 = 1024 Мегабайт
Чтобы подсчитать информационный объем сообщения необходимо количество символов в сообщении умножить на информационный вес одного символа
i – информационный вес одного символа
I – информационный объем всего сообщения
Считая, что каждый символ кодируется одним байтом, определите, чему равен информационный объем следующего высказывания Рене Декарта:
Я мыслю, следовательно, существую.
1) Из условия известно, что 1 символ равен 1 байт, т.е. 8 бит.
2) Посчитаем, сколько символов в сообщении (учитывая, что все знаки препинания и пробелы считаются символами). Получилось 34 символов.
3) Считаем 34 символов × 8 бит = 272 бит
4) Следовательно, правильный ответ: 2)
Содержательный подход к измерению информации.
Неопределенность знаний о некотором событии – это количество возможных результатов события.
Сообщение, уменьшающее неопределенность знаний в два раза, несет один бит информации.
Можно сказать иначе: Сообщение о том, что произошло одно из двух событий, несет 1 бит информации.
Количество информации, содержащееся в сообщении, о том что произошло одно событие, связано с количеством возможных событий следующей формулой:
2 i = N где N – количество равновероятных событий
i – количество информации, содержащееся в сообщении о том, что произошло одно из равновероятных событий (количество бит).
Шахматная доска состоит из 64 полей: 8 строк и 8 столбцов. Какое минимальное количество бит потребуется для кодирования координат одного шахматного поля?
1) Нам известно количество полей (количество равновероятных событий) – 64.
2) По формуле 2 I = N найдем количество бит для кодирования одного поля:
5) Следовательно, правильный ответ: 4)
Рекомендую дополнительно дать теорию по вероятности (иногда задачи на эту тему встречаются в ЕГЭ):
где p – вероятность события
K – количество благоприятных событий
N – общее количество событий
Связь между вероятностью события и количеством информации в сообщении: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.
Презентация к уроку
Тип урока: изучение нового материала
Отводимое время: 1 час
Оборудование: интерактивная доска, проектор, презентация
I. Организационный момент
II. Объяснение нового материала
Дан алфавит, расшифруйте тему нашего урока:
(информация)
Слово информация происходит от латинского informatio, означающего сведения, разъяснения, пояснения.
Информация — это сведения о людях, предметах, фактах, событиях и процессах, независимо от формы их представления.
В простейшем бытовом понимании с термином “информация” обычно ассоциируются некоторые сведения, данные, знания и т.п. Информация передается в виде сообщений, определяющих форму и представление передаваемой информации. Примерами сообщений являются музыкальное произведение; телепередача; команды регулировщика на перекрестке; текст, распечатанный на принтере; данные, полученные в результате работы составленной вами программы и т.д. При этом предполагается, что имеются “источник информации” и “получатель информации”.
Сообщение от источника к получателю передается посредством какой-нибудь среды, являющейся в таком случае “каналом связи” (рис. 1). Так, при передаче речевого сообщения в качестве такого канала связи можно рассматривать воздух, в котором распространяются звуковые волны, а в случае передачи письменного сообщения (например, текста, распечатанного на принтере) каналом сообщения можно считать лист бумаги, на котором напечатан текст.
Рис. 1. Схема передачи информации
Как и всякий объект, информация обладает свойствами.
Информация не существует сама по себе, она проявляется в информационных процессах.
В наиболее общем виде информационный процесс (ИП) определяется как совокупность последовательных действий (операций), производимых над информацией (в виде данных, сведений, фактов, идей, гипотез, теорий и пр.) для получения какого-либо результата (достижения цели).
Каждый из этих процессов распадается, в свою очередь, на ряд процессов, причем некоторые из последних могут входить в каждый из выделенных обобщенных процессов.
В широком смысле поиск является основой познавательной деятельности человека во всех ее проявлениях: в удовлетворении любопытства, путешествиях, научной работе, чтении и т. п. В более узком смысле поиск означает систематические процедуры в организованных хранилищах информации: библиотеках, справочниках, картотеках, электронных каталогах, базах данных.
Успех вашего выбора будет зависеть от того, как вы организовали поиск информации. Используйте разнообразные методы поиска информации, это поможет вам собрать более полную информацию и повысит вероятность принятия вами правильного решения.
В процессе поиска вам может встретиться самая разная информация. Любую информацию человек привык оценивать по степени ее полезности, актуальности и достоверности. После оценки какие-то полученные сведения могут быть отброшены как ненужные, какие-то, наоборот, оставлены на долгое хранение. То есть процесс поиска информации практически всегда сопровождается ее отбором. Всё это вместе называют процессом сбора информации.
Сбор информации – это целенаправленный процесс, который сводится к поиску, отбору, получению и накоплению нужной для дальнейшего использования информации.
Хранение информации – это процесс помещения информации в определенное хранилище с целью извлечения ее оттуда через некоторое время для дальнейшего использования.
Когда объём накапливаемой информации возрастает настолько, что её становится просто невозможно хранить в памяти, человек начинает прибегать к помощи различного Рода вспомогательных средств.
Хранение информации необходимо для распространения её во времени, а её распространение в пространстве происходит в процессе передачи информации.
Игра “Испорченный телефон”
Последние сообщают полученную информацию, и она сравнивается с первоначальной.
Идет обсуждение ситуации потери и искажения информации.
Передача информации – это целенаправленный процесс, в результате которого информация передается от одного объекта к другому.
Кодирование информации – процесс формирования представления информации с использованием одного из языков
Единицы измерения информации служат для измерения объёма информации — величины, исчисляемой логарифмически. Это означает, что когда несколько объектов рассматриваются как один, количество возможных состояний перемножается, а количество информации — складывается. Не важно, идёт речь о случайных величинах в математике, регистрах цифровой памяти в технике или в квантовых системах в физике.
Чаще всего измерение информации касается объёма компьютерной памяти и объёма данных, передаваемых по цифровым каналам связи.
Объём информации можно представлять как логарифм количества возможных состояний.
Наименьшее целое число, логарифм которого положителен — это 2. Соответствующая ему единица — бит — является основой исчисления информации в цифровой технике.
Бит – количество информации, содержащейся в сообщении, уменьшающем неопределенность знаний в 2 раза.
Следующей по порядку популярной единицей информации является 8 бит, или байт (о терминологических тонкостях написано ниже). Именно к байту (а не к биту) непосредственно приводятся все большие объёмы информации, исчисляемые в компьютерных технологиях.
Байт – последовательность символов.
Существуют и другие измерения информации, которые вычисляются:
Существуют 2 подхода к измерению информации:
I Содержательный подход
Сообщение – информационный поток, который в процессе передачи информации поступает к приемнику
N – число равновероятных событий
i – количество информации в сообщении
II Алфавитный подход
Позволяет определить количество информации, заключенной в тексте.
N – количество символов в алфавите (мощность алфавита)
i – количество информации, содержащейся в одном символе алфавита
Количество информации в тексте:
K – число символов в тексте
V – объем информации
III. Закрепление изученного материала:
1. Тот, от кого мы получаем информацию (источник).
2. Определенный знак, с помощью которого представлена информация (код).
3. Орган, с помощью которого человек получает зрительную информацию (глаз)
4. Универсальное устройство обработки информации (компьютер).
5. Тот, кому передается информация (приемник).
6. Действие над информацией, которое осуществляется при заучивании стихотворения (хранение).
IV. Подведение итогов урока
1. Что такое информация?
2. Каковы основные свойства информации?
3. Перечислите и прокомментируйте информационные процессы, протекающие в природе и обществе.
4. Укажите формы представления информации.
5. В чем состоит процедура дискретизации непрерывной информации?
1 информация данные информационный процесс кодирование и измерение информации
Электронные облака
Лекции
Рабочие материалы
Тесты по темам
Template tips
Задачи
Логика вычислительной техники и программирования
Лекция «Технология кодирования и измерения количества информации»
Качество и количество информации
Анализируя информацию, мы сталкиваемся с необходимостью определения качества и определения количества полученной информации. Определить качество информации чрезвычайно сложно, а часто и вообще невозможно. Какие-либо сведения, например исторические, могут десятилетиями считаться ненужными и вдруг их ценность может резко возрасти.
Вместе с тем определить количество информации не только можно, но и нужно. Это необходимо для того, чтобы сравнить друг с другом различные массивы информации, а также определить, какие размеры должны иметь материальные объекты (бумага, магнитные носители и т.д.), хранящие эту информацию.
Далее, говоря об измерении информации, мы будем иметь в виду определение ее количества.
Единая форма кодирования и измерения количества информации
Как измерять количество информации? Для этого нужно иметь универсальный способ, позволяющий представить любую ее форму (текстовую, графическую и др.) в едином стандартном виде.
За такой способ принята так называемая двоичная форма представления информации. Она заключается в записи любой информации в виде последовательности только двух символов: 0 и 1 (то есть в виде двоичных чисел) и с технической точки зрения наиболее проста и удобна (есть ток/нет тока, намагничено/размагничено, высокое напряжение/низкое напряжение).
Рассмотрим сначала одноразрядное двоичное число – бит. Оно может принимать два различных значения: 0 и 1
Если с помощью одноразрядного числа попробовать закодировать какую-либо информацию (например, ответ на вопрос «идет ли дождь?»), то мы успешно справимся с поставленной задачей, поскольку количество различных вариантов кодирования в данном случае равно двум (0-не идет, 1-идет).
К = 2 n °, где n – число разрядов двоичного числа.
В общем случае, верно, что чем больше различных видов однотипной информации требуется закодировать, тем больше разрядов двоичного числа (бит) требуется.
Единицы измерения информации
Таким образом, можно утверждать: информацию можно измерять в битах, то есть в количестве двоичных разрядов. Бит является наименьшей единицей измерения количества информации.
В 100 Мб можно уместить:
Страниц текста | 50000 |
Цветных слайдов высочайшего качества | 150 |
Аудиозапись | 1,5 часа |
Музыкальный фрагмент качества CD-стерео | 10 минут |
Фильм высокого качества записи | 15 секунд |
Протоколы операций по банковским счетам | За 1000 лет |
Представление текстовой информации в компьютере. Кодовые таблицы
Кодирование текстового сообщения
Каждому символу ставится в соответствие двоичное число, причем таким образом, что чем дальше символ расположен от начала алфавита, тем больше значение двоичного числа, которое является кодом данного символа. Сколько разрядов (бит) требуется, чтобы закодировать все буквы, знаки препинания, математические и специальные символы? Легко подсчитать:
Находим, что для кодирования всех символов необходимо 8-разрядное двоичное число. Каждому символу ставится в соответствие свое уникальное значение восьмиразрядного двоичного числа. Так, если 10000000 – код буквы А, а 10001100 – код буквы М, то слово «МАМА» кодируется последовательностью из 32-х двоичных цифр (бит):
10000000 10001100 10000000 10001100, именно в такой форме данное текстовое сообщение и будет закодировано компьютером с использованием ровно 32-х бит.
Таблица кодирования ASCII
Как мы уже выяснили, традиционно для кодирования одного символа используется 8 бит. И, когда люди определились с количеством бит, им осталось договориться о том, каким кодом кодировать тот или иной символ, чтобы не получилось путаницы, т.е. необходимо было выработать стандарт – все коды символов сохранить в специальной таблице кодов. В первые годы развития вычислительной техники таких стандартов не существовало, а сейчас наоборот, их стало очень много, но они противоречивы. Первыми решили эти проблемы в США, в Институте стандартизации. Этот институт ввел в действие таблицу кодов ASCII (American Standard Code for Information Interchange – стандартный код информационного обмена США).
Рассмотрим таблицу кодов ASCII:
Таблица ASCII разделена на две части. Первая – стандартная – содержит коды от 0 до 127. Вторая – расширенная – содержит символы с кодами от 128 до 255.
Первые 32 кода отданы производителям аппаратных средств и называются они управляющие, т.к. эти коды управляют выводом данных. Им не соответствуют никакие символы.
Коды с 32 по 127 соответствуют символам английского алфавита, знакам препинания, цифрам, арифметическим действиям и некоторым вспомогательным символам.
Коды расширенной части таблицы ASCII отданы под символы национальных алфавитов, символы псевдографики и научные символы.
Все буквы расположены в них по алфавиту, а цифры – по возрастанию. Этот принцип последовательного кодирования позволяет определить код символа, не заглядывая в таблицу.
Коды цифр берутся из этой таблицы только при вводе и выводе и если они используются в тексте. Если же они участвуют в вычислениях, то переводятся в двоичную систему счисления.
Альтернативные системы кодирования кириллицы
Таблица Unicode разделена на несколько областей. Область с кодами от 0000 до 007F содержит символы набора Latin 1 (младшие байты соответствуют кодировке ISO 8859-1). Далее идут области, в которых расположены знаки различных письменностей, а также знаки пунктуации и технические символы. Часть кодов зарезервирована для использования в будущем (29000). 6000 кодовых комбинаций оставлено программистам.
Символам кириллицы выделены коды в диапазоне от 0400 до 0451.
Использование Unicode значительно упрощает создание многоязычных документов, публикаций и программных приложений.
Решение задач
1. Закодируйте с помощью ASCII слово: МИР
Решение: открываем таблицу ASCII,
по таблице ищем букву М, её код 204
по таблице ищем букву И, её код 200
по таблице ищем букву Р, её код 208
Ответ: код слова МИР – 204 200 208
2. Декодируйте тексты, заданные десятичным кодом: 192 203 195 206 208 200 210 204
Решение: открываем таблицу ASCII, в таблице ищем коды и соответствующую им букву:
192 – А; 203 – Л; 195 – Г; 206 – О; 208 – Р; 200 – И; 210 – Т; 204 – М, т. е. получили слово: АЛГОРИТМ
Ответ: 192 203 195 206 208 200 210 204 – АЛГОРТИМ
3. Десятичный код буквы «I» в таблице ASCII равен 73. Не пользуясь таблицей, составьте последовательность кодов, соответствующих слову MIR
Решение: Зная, что все буквы расположены по алфавиту, а цифры по возрастанию делаем следующие выводы: I – 73, J – 74, K – 75, L – 76, M – 77, N – 78, O – 79, P – 80, Q – 81, R – 82
Ответ: MIR – 77 73 82
4. Каков информационный объём текста, содержащего слово МИР:
а) в 16-битовой кодировке; б) в 8-битовой кодировке
Решение:
Зная, что в 8-битовой кодировке 1 символ – 8 бит делаем следующие выводы:
МИР – 3 символа = 24 бит (3*8)
Зная, что в 16-битовой кодировке 1 символ – 16 бит делаем следующие выводы:
МИР – 3 символа = 48 бит (3*16)
Ответ: а) 48 бит; б) 24 бит.
5. Текст занимает полных 2 страницы. На каждой странице размещается 45 строк по 45 символов. Определить объём оперативной памяти, который займёт этот текст.
Кодирование графической информации
Общие понятия о графической информации
Графическая информация представляет собой изображение, сформированное из определенного числа точек – пикселей. Добавим к этой информации новые сведения. Процесс разбиения изображения на отдельные маленькие фрагменты (точки) называется пространственной дискретизацией. Ее можно сравнить с построением рисунка из мозаики. При этом каждой мозаике (точке) присваивается код цвета.
От количества точек зависит качество изображения. Оно тем выше, чем меньше размер точки и соответственно большее их количество составляет изображение. Такое количество точек называется разрешающей способностью и обычно существуют четыре основных значений этого параметра: 640×480, 800×600, 1024×768, 1280×1024.
Качество изображения зависит также от количества цветов, т.е. от количества возможных состояний точек изображения, т.к. при этом каждая точка несет большее количество информации. Используемый набор цветов образует палитру цветов.
Кодирование цвета
Рассмотрим, каким образом происходит кодирование цвета точек. Для кодирования цвета применяется принцип разложения цвета на составляющие. Их три: красный цвет (Red, R), синий (Blue, В) и зелёный (Green, G). Смешивая эти составляющие, можно получать различные оттенки и цвета – от белого до черного.
Сколько бит необходимо выделить для каждой составляющей, чтобы при кодировании изображения его качество было наилучшим?
Если рисунок черно-белый, то общепринятым на сегодняшний день считается представление его в виде комбинации точек с 256 градациями серого, т.е. для кодирования точки достаточно 1 байта.
Если же изображение цветное, то с помощью 1 байта можно также закодировать 256 разных оттенков цветов. Этого достаточно для рисования изображений типа тех, что мы видим в мультфильмах. Для изображений же живой природы этого недостаточно. Если увеличить количество байт до двух (16 бит), то цветов станет в два раза больше, т.е. 65536. Это уже похоже на то, что мы видим на фотографиях и на картинках в журналах, но все равно хуже, чем в живой природе. Увеличим еще количество байтов до трех (24 бита). В этом случае можно закодировать 16,5 миллионов различных цветов. Именно такой режим позволяет работать с изображениями наилучшего качества.
Количество бит, необходимое для кодирования цвета точки называется глубиной цвета. Наиболее распространенными значениями глубины цвета являются 4, 8, 16 и 24 бита на точку.
Решение задач
1. Какой объём видеопамяти необходим для хранения четырёх страниц изображения при условии, что разрешающая способность дисплея равна 640Х480 точек, а используемых цветов – 32?
Теперь все параметры нам известны, находим объём:
V = 640*480*5*4 =6144000 бит = 750 Кбайт (т.к. в 1 байте – 8 бит и в 1 Кбайте – 1024 байт)
Ответ: 750 Кбайт
2. 256-цветный рисунок содержит 1 Кбайт информации. Из скольки точек он состоит?
Переведём известный объём в биты: 1Кбайт = 1024 байт*8бит = 8192 бит
Зная глубину и объём находим количество точек на изображении: 8192:8 = 1024 точек
Кодирование звуковой информации
Оцифровка звука
Звук представляет собой звуковую волну с непрерывно меняющейся амплитудой и частотой. Для человека звук тем громче, чем больше амплитуда сигнала, и тем выше тон, чем больше частота сигнала. Непрерывный сигнал не несет в себе информации, поэтому он должен быть превращен в последовательность двоичных нулей и единиц – двоичный (цифровой) код.
Оцифровку звука выполняет специальное устройство на звуковой плате. Называется оно аналого-цифровой преобразователь (АЦП). Обратный процесс – воспроизведение закодированного звука производится с помощью цифро-аналогового преобразователя (ЦАП).
Весь процесс кодирования и декодирования представить в виде следующей схемы:
Схема кодирования звука:
В процессе кодирования непрерывного звукового сигнала производится дискретизация по времени, или, как говорят, «временная дискретизация». Звуковая волна разбивается на отдельные маленькие временные участки и для каждого участка устанавливается определенная величина амплитуд. Данный метод называется импульсно-амплитудной модуляцией РСМ Code Modulation).
Таким образом, гладкая кривая заменяется на последовательность «ступенек».. Каждой «ступеньке» присваивается значение громкости звука (1, 2, 3). Чем больше «ступенек», тем большее количество уровней громкости выделено в процессе кодирования, и тем большее количество информации будет нести значение каждого уровня и более качественным будет звучание.
Характеристики оцифрованного звука
Качество звука зависит от двух характеристик – глубины кодирования и частоты дискретизации. Рассмотрим эти характеристики.
Современные звуковые карты обеспечивают 16-битную глубину кодирования звука, и тогда общее количество различных уровней будет: N=2 16 = 65536.
Частота дискретизации (М) – это количество измерений уровня звукового сигнала в единицу времени. Эта характеристика показывает качество звучания и точность процедуры двоичного кодирования. Измеряется в герцах (Гц). Одно измерение за одну секунду соответствует частоте 1 Гц, 1000 измерений за одну секунду – 1 килогерц (кГц). Частота дискретизации звукового сигнала может принимать значения от 8 до 48 кГц. При частоте 8 кГц качество дискретизированного звукового сигнала соответствует качеству радиотрансляции, а при частоте 48 кГц – качеству звучания аудио-CD.
Высокое качество звучания достигается при частоте дискретизации 44,1 кГц и глубины кодирования звука, равной 16 бит. Для мрачного, приглушенного звука характерны следующие параметры: частота дискретизации – 11 кГц, глубина кодирования – 8 бит.
Глубина кодирования | Частота дискретизации | |
Радиотрансляция | 8 бит | До 8 кГц |
Среднее качество | 8 бит или 16 бит | 8-48 кГц |
Звучание CD-диска | 16 бит | До 48 кГц |
Для того, чтобы найти объем звуковой информации, необходимо воспользоваться следующей формулой:
V= M*I*t,
где М — частота дискретизации (в Гц),
I — глубина кодирования (в битах),
t — время звучания (в секундах).
Решение задач
1. Определить объём памяти для хранения моноаудиофайла, время звучания которого составляет пять минут при частоте дискретизации 44 кГц и глубине кодирования 16 бит.
Решение: Воспользуемся формулой: V = M*I*t
В нашем случае М = 44 кГц = 44000 Гц
I = 16 бит
t = 5 минут,
подставляем в формулу и получаем:
V = 44000*16*5 = 3520000 бит = 430 Кбайт (примерно)