Автор конспекта:
Автор(ы): — Полякова Людмила Анатольевна
Место работы, должность: — Г.Щелково, Московской области, МАОУ СОШ № 12, учитель информатики
Регион: — Московская область
Характеристики урока (занятия) Уровень образования: — среднее (полное) общее образование
Целевая аудитория: — Учащийся (студент)
Класс(ы): — 9 класс
Предмет(ы): — Информатика и ИКТ
Цель урока: —
- сформировать у учащихся понимание вероятности, равновероятных событий, научить находить количество информации;
- воспитание информационной культуры учащихся, внимательности, аккуратности, дисциплинированности, усидчивости;
- развитие познавательных интересов, самоконтроля.
Тип урока: — Урок изучения и первичного закрепления новых знаний
Используемая методическая литература: —
Угринович Н.Д. "Информатика и ИКТ", 9 класс, Бином
Используемое оборудование: —
Интерактивная доска, мультимедийный проектор, компьютерная презентация, компьютеры.
Краткое описание: — Мы с вами говорили, что основным понятием в информатике является “информация”. А можно ли измерить количество информации и как это сделать? Как и любую величину, информацию можно измерять и находить ее количество. Количество информации — это мера уменьшения неопределенности.
Алфавитный подход к определению количества информации.
Формула Шеннона. Количество информации и вероятность.
Цели урока:
- сформировать у учащихся понимание вероятности, равновероятных событий, научить находить количество информации;
- воспитание информационной культуры учащихся, внимательности, аккуратности, дисциплинированности, усидчивости;
- развитие познавательных интересов, самоконтроля.
Оборудование:
Интерактивная доска, мультимедийный проектор, компьютерная презентация, компьютеры.
План урока:
- Организационный момент.
- Проверка и актуализация знаний.
- Теоретическая часть.
- Практическая часть (решение задач).
- Д/з.
- Вопросы учеников.
- Итог урока.
ХОД УРОКА
1. Организационный. момент.
Приветствие, проверка присутствующих. Объяснение хода урока.
2. Проверка и актуализация знаний.
Мы с вами говорили, что основным понятием в информатике является “информация”. А можно ли измерить количество информации и как это сделать?
Как и любую величину, информацию можно измерять и находить ее количество.
Количество информации — это мера уменьшения неопределенности.
1 БИТ – такое кол-во информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза. 1 БИТ- это наименьшая единица измерения информации
Сообщение о том, что произошло одно событие из 2х равновероятных несет 1 бит информации.
Количество информации I, содержащееся в сообщении о том, что произошло одно из Nравновероятных событий, определяется из решения показательного уравнения: N=2I
Формула показывает, каким количеством информации нужно располагать, чтобы полностью снять неопределенность.
Величина, характеризующая количество неопределенности в теории информации обозначается символом H и имеет название энтропия, точнее информационная энтропия.
Энтропия (H) – мера неопределенности, выраженная в битах.
Количество информации I и энтропия H характеризуют одну и ту же ситуацию, но с качественно противоположенных сторон.
I – это количество информации, которое требуется для снятия неопределенности H.
Когда неопределенность снята полностью, количество полученной информации I равно изначально существовавшей неопределенности H.
Единицы измерения информации:
1байт = 8 бит
1Кб (килобайт) = 210 байт = 1024 байт
1Мб (мегабайт) = 210 Кб = 1024 Кб
1Гб (гигабайт) = 210 Мб = 1024 Мб
Существует два подхода к измерению информации:
алфавитный (т.е. количество информации зависит от последовательности знаков);
содержательный или вероятностный (т.е. количество информации зависит от ее содержания).
1) Рассмотрим первый подход к измерению информации. При определении количества информации на основе уменьшения неопределенности наших знаний мы рассматриваем информацию с точки зрения содержания, ее понятности и новизны для человека. Однако при хранении и передаче информации с помощью технических устройств целесообразно отвлечься от содержания информации и рассматривать ее как последовательность знаков (букв, цифр, кодов цветов точек изображения и так далее).
Множество используемых в тексте символов называется алфавитом.
У алфавита есть размер (полное количество его символов), который называется мощностью алфавита.
Алфавит можно рассматривать как различные возможные состояния (события). Тогда, если считать, что появление символов в сообщении равновероятно, по формуле (2) можно рассчитать, какое количество информации несет каждый символ. Так, в русском алфавите, если не использовать букву ё, количество событий (букв) будет равно 32.
Тогда: 32=2i, откуда I = 5 битов.
Каждый символ несет 5 битов информации (его информационная емкость равна 5 битов). Количество информации в сообщении можно подсчитать, умножив количество информации, которое несет 1 символ, на количество символов:
Количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на количество знаков.
2) Рассмотрим второй подход к измерению информации. Существует множество ситуаций, когда возможные события имеют различные вероятности реализации.
Американский инженер и математик Клод Элвуд Шеннон в 1948 г. предложил формулу для вычисления количества информации в случае различных вероятностей событий:
где I – количество информации;
N – количество возможных событий;
pi – вероятность i-го события. Вероятность события выражается в долях единицы и вычисляется по формуле: (3)
где k – количество конкретных событий, т.е. величина, показывающая, сколько раз произошло интересующее нас событие.
Этот подход к определению количества информации называется вероятностным.
Количество информации, которое мы получаем, достигает максимального значения, если события равновероятны.
Файлы: Компьютерная графика.ppt
Размер файла: 5207040 байт.