Автор конспекта:
Автор(ы): — Полякова Людмила Анатольевна

Место работы, должность: — Г.Щелково, Московской области, МАОУ СОШ № 12, учитель информатики

Регион: — Московская область

Характеристики урока (занятия) Уровень образования: — среднее (полное) общее образование

Целевая аудитория: — Учащийся (студент)

Класс(ы): — 9 класс

Предмет(ы): — Информатика и ИКТ

Цель урока: —

  • сформировать у учащихся понимание вероятности, равновероятных событий, научить находить количество информации;
  • воспитание информационной культуры учащихся, внимательности, аккуратности, дисциплинированности, усидчивости;
  • развитие познавательных интересов, самоконтроля.

Тип урока: — Урок изучения и первичного закрепления новых знаний

Используемая методическая литература: —

Угринович Н.Д. "Информатика и ИКТ", 9 класс, Бином

Используемое оборудование: —

Интерактивная доска, мультимедийный проектор, компьютерная презентация, компьютеры.

Краткое описание: — Мы с вами говорили, что основным понятием в информатике является “информация”. А можно ли измерить количество информации и как это сделать? Как и любую величину, информацию можно измерять и находить ее количество. Количество информации — это мера уменьшения неопределенности.

Алфавитный подход к определению количества информации.

Формула Шеннона. Количество информации и вероятность.

Цели урока:

  • сформировать у учащихся понимание вероятности, равновероятных событий, научить находить количество информации;
  • воспитание информационной культуры учащихся, внимательности, аккуратности, дисциплинированности, усидчивости;
  • развитие познавательных интересов, самоконтроля.

Оборудование:

Интерактивная доска, мультимедийный проектор, компьютерная презентация, компьютеры.

План урока:

  • Организационный момент.
  • Проверка и актуализация знаний.
  • Теоретическая часть.
  • Практическая часть (решение задач).
  • Д/з.
  • Вопросы учеников.
  • Итог урока.

ХОД УРОКА

1. Организационный. момент.

Приветствие, проверка присутствующих. Объяснение хода урока.

2. Проверка и актуализация знаний.

  • Что такое информация?
  • Как может быть представлена информация? Приведите примеры.
  • Зависит ли смысл, содержание информации от способа представления?
  • Какие формы представления информации вы знаете?
  • Какие свойства информации вы знаете?
  • Представьте информацию о погоде в различной форме.
  • Мы с вами говорили, что основным понятием в информатике является “информация”. А можно ли измерить количество информации и как это сделать?

    Как и любую величину, информацию можно измерять и находить ее количество.

    Количество информации — это мера уменьшения неопределенности.

    1 БИТ – такое кол-во информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза. 1 БИТ- это наименьшая единица измерения информации

    Сообщение о том, что произошло одно событие из 2х равновероятных несет 1 бит информации.

    Количество информации I, содержащееся в сообщении о том, что произошло одно из Nравновероятных событий, определяется из решения показательного уравнения: N=2I

    Формула показывает, каким количеством информации нужно располагать, чтобы полностью снять неопределенность.

    Величина, характеризующая количество неопределенности в теории информации обозначается символом H и имеет название энтропия, точнее информационная энтропия.

    Энтропия (H) – мера неопределенности, выраженная в битах.

    Количество информации I и энтропия H характеризуют одну и ту же ситуацию, но с качественно противоположенных сторон.

    I – это количество информации, которое требуется для снятия неопределенности H.

    Когда неопределенность снята полностью, количество полученной информации I равно изначально существовавшей неопределенности H.

    Единицы измерения информации:

    1байт = 8 бит

    1Кб (килобайт) = 210 байт = 1024 байт

    1Мб (мегабайт) = 210 Кб = 1024 Кб

    1Гб (гигабайт) = 210 Мб = 1024 Мб

    Существует два подхода к измерению информации:

    алфавитный (т.е. количество информации зависит от последовательности знаков);

    содержательный или вероятностный (т.е. количество информации зависит от ее содержания).

    1) Рассмотрим первый подход к измерению информации. При определении количества информации на основе уменьшения неопределенности наших знаний мы рассматриваем информацию с точки зрения содержания, ее понятности и новизны для человека. Однако при хранении и передаче информации с помощью технических устройств целесообразно отвлечься от содержания информации и рассматривать ее как последовательность знаков (букв, цифр, кодов цветов точек изображения и так далее).

    Множество используемых в тексте символов называется алфавитом.

    У алфавита есть размер (полное количество его символов), который называется мощностью алфавита.

    Алфавит можно рассматривать как различные возможные состояния (события). Тогда, если считать, что появление символов в сообщении равновероятно, по формуле (2) можно рассчитать, какое количество информации несет каждый символ. Так, в русском алфавите, если не использовать букву ё, количество событий (букв) будет равно 32.

    Тогда: 32=2i, откуда I = 5 битов.

    Каждый символ несет 5 битов информации (его информационная емкость равна 5 битов). Количество информации в сообщении можно подсчитать, умножив количество информации, которое несет 1 символ, на количество символов:

    Количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на количество знаков.

    2) Рассмотрим второй подход к измерению информации. Существует множество ситуаций, когда возможные события имеют различные вероятности реализации.

    Американский инженер и математик Клод Элвуд Шеннон в 1948 г. предложил формулу для вычисления количества информации в случае различных вероятностей событий:

    где I – количество информации;

    N – количество возможных событий;

    pi – вероятность i-го события. Вероятность события выражается в долях единицы и вычисляется по формуле: (3)

    где k – количество конкретных событий, т.е. величина, показывающая, сколько раз произошло интересующее нас событие.

    Этот подход к определению количества информации называется вероятностным.

    Количество информации, которое мы получаем, достигает максимального значения, если события равновероятны.

    Файлы: Компьютерная графика.ppt
    Размер файла: 5207040 байт.

    ( план – конспект урока 1 класс 5 класс. 6 класс 7 класс 8 класс 9 класс 10 класс Английский язык Литературное чтение Математика Музыка ОБЖ Окружающий мир Оренбургская область Физика ЦОР алгебра биология викторина внеклассное мероприятие география геометрия здоровье игра информатика история классный час конкурс конспект урока краеведение кроссворд литература начальная школа обществознание презентация программа проект рабочая программа русский язык тест технология урок химия экология