Читайте также

Главная  Лучшие    Популярные   Список   Добавить
Статьи » Информатика

Ответ на билет №3 по информатике 11 класс

Информатика 1. Вероятностный и алфавитный подходы к измерению информации. Единицы измерения информации. Скорость передачи информации. Пропускная способность канала связи.
2. Дорисуйте растровое изображение и закрасьте его по образцу.
3. Решите текстовую логическую задачу (необходимо использовать не менее трех переменных).

Вероятностный и алфавитный подходы к измерению информации. Единицы измерения
информации. Скорость передачи информации. Пропускная способность канала связи.
Информация и знания. Человек получает информацию из окружающего мира с помощью
органов чувств, анализирует ее и выявляет существенные закономерности с помощью
мышления, хранит полученную информацию в памяти. Процесс систематического
научного познания окружающего мира приводит к накоплению информации в форме
знаний (фактов, научных теорий и так далее). Таким образом, с точки зрения
процесса познания информация может рассматриваться как знания.
Информацию, которую получает человек, можно считать мерой уменьшения
неопределенности знаний. Если некоторое сообщение приводит к уменьшению
неопределенности наших знаний, то можно говорить, что такое сообщение содержит
информацию.
1. Уменьшение неопределенности знаний (вероятностный подход). Подход к
информации как мере уменьшения неопределенности знаний позволяет количественно
измерять информацию, что чрезвычайно важно для информатики. Рассмотрим вопрос об
определении количества информации более подробно на конкретных примерах.
Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной
вероятностью произойдет одно из двух возможных событий — монета окажется в одном
из двух положений: «орел» или «решка».

Можно говорить, что события равновероятны, если при возрастающем числе опытов
количества выпадений «орла» и «решки» постепенно сближаются. Например, если мы
бросим монету 10 раз, то «орел» может выпасть 7 раз, а решка — 3 раза, если
бросим монету 100 раз, то «орел» может выпасть 60 раз, а «решка» — 40 раз, если
бросим монету 1000 раз, то «орел» может выпасть 520 раз, а «решка» — 480 и так
далее.

В итоге при очень большой серии опытов количества выпадений «орла» и «решки»
практически сравняются.
Перед броском существует неопределенность наших знаний (возможны два события),
и, как упадет монета, предсказать невозможно. После броска наступает полная
определенность, так как мы видим (получаем зрительное сообщение), что монета в
данный момент находится в определенном положении (например, «орел»). Это
сообщение приводит к уменьшению неопределенности наших знаний в два раза, так
как до броска мы имели два вероятных события, а после броска — только одно, то
есть в два раза меньше.
В окружающей действительности достаточно часто встречаются ситуации, когда может
произойти некоторое количество равновероятных событий. Так, при бросании
равносторонней четырехгранной пирамиды существуют 4 равновероятных события, а
при бросании шестигранного игрального кубика - 6 равновероятных событий.
Чем больше количество возможных событий, тем больше начальная неопределенность и
соответственно тем большее количество информации будет содержать сообщение о
результатах опыта.
3. Единицы измерения количества информации. Для количественного выражения любой
величины необходимо определить единицу измерения. Так, для измерения длины в
качестве единицы выбран метр, для измерения массы — килограмм и так далее.
Аналогично, для определения количества информации необходимо ввести единицу
измерения.
За единицу количества информации принимается такое количество информации,
которое содержит сообщение, уменьшающее неопределенность в два раза. Такая
единица названа «бит».
Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз
уменьшается в два раза и, следовательно, полученное количество информации равно
1 биту.
Минимальной единицей измерения количества информации является бит, а следующей
по величине единицей является байт, причем 1 байт = 23 бит = 8 бит.
В информатике система образования кратных единиц измерения количества информации
несколько отличается от принятых в большинстве наук. Традиционные метрические
системы единиц, например Международная система единиц СИ, в качестве множителей
кратных единиц используют коэффициент 10n, где n = 3, 6, 9 и так далее, что
соответствует десятичным приставкам Кило (103), Мега (106), Гига (109) и так
далее.
Компьютер оперирует числами не в десятичной, а в двоичной системе счисления,
поэтому в кратных единицах измерения количества информации используется
коэффициент 2n.
Так, кратные байту единицы измерения количества информации вводятся следующим
образом:
1 Кбайт = 210 байт = 1024 байт;
1 Мбайт = 210 Кбайт = 1024 Кбайт;
1 Гбайт = 210 Мбайт = 1024 Мбайт.
Количество возможных событий и количество информации. Существует формула,
которая связывает между собой количество возможных событий N и количество
информации I: N=2I.
По этой формуле можно легко определить количество возможных событий, если
известно количество информации. Например, если мы получили 4 бита информации, то
количество возможных событий составляло: N = 24= 16.
Наоборот, для определения количества информации, если известно количество
событий, необходимо решить показательное уравнение относительно I. Например, в
игре «Крестики-нолики» на поле 8x8 перед первым ходом существует возможных
события (64 различных варианта расположения «крестика»), тогда уравнение
принимает вид: 64 = 2I.
Так как 64 = 26, то получим: 26 = 2I.
Таким образом, I = 6 битов, то есть количество информации, полученное вторым
игроком после первого хода первого игрока, составляет 6 битов.
2. Алфавитный подход к определению количества информации.
При определении количества информации на основе уменьшения неопределенности
наших знаний мы рассматриваем информацию с точки зрения содержания, ее
понятности и новизны для человека. С этой точки зрения в опыте по бросанию
монеты одинаковое количество информации содержится и в зрительном образе упавшей
монеты, и в коротком сообщении «Орел», и в длинной фразе «Монета упала на
поверхность земли той стороной вверх, на которой изображен орел».
Однако при хранении и передаче информации с помощью технических устройств
целесообразно отвлечься от содержания информации и рассматривать ее как
последовательность знаков (букв, цифр, кодов цветов точек изображения и так
далее).
Набор символов знаковой системы (алфавит) можно рассматривать как различные
возможные состояния (события). Тогда, если считать, что появление символов в
сообщении равновероятно, по формуле можно рассчитать, какое количество
информации несет каждый символ.
Так, в русском алфавите, если не использовать букву ё, количество событий (букв)
будет равно 32. Тогда: 32 = 2I,откуда I = 5 битов.
Каждый символ несет 5 битов информации (его информационная емкость равна 5
битов). Количество информации в сообщении можно подсчитать, умножив количество
информации, которое несет один символ, на количество символов.
Количество информации, которое содержит сообщение, закодированное с помощью
знаковой системы, равно количеству информации, которое несет один знак,
умноженному на количество знаков.

4. Обмен информацией производится по каналам передач информации. Каналы передачи
информации могут использовать различные физические принципы.
Компьютеры могут быть соединены между собой кабелями, по которым информация
распространяется с помощь электрических импульсов.
Общая схема передачи информации включает в себя отправителя информации (передает
информацию), канал передачи информации и получателя информации (принимает и
формацию). Если производится двусторонний обмен информацией, то отправитель и
получатель информации могут меняться ролями.
Основной характеристикой каналов передачи инфopмации является их пропускная
способность (скорость переда информации). Пропускная способность канала равна
количеству информации, которое может передаваться по нему в единицу времени.
Обычно пропускная способность измеряется в битах в се­кунду (бит/с) и кратных
единицах Кбит/с и Мбит/с. Одна­ко, иногда в качестве единицы используется и байт
в секун­ду (байт/с) и кратные ему единицы Кбайт/с и Мбайт/с.
Легко догадаться, что соотношения между единицами пропускной способности канала
передачи информации та­кие же, как между единицами измерения количества
ин­формации.
1 байт/с = 23 бит/с = 8 бит/с,
1 Кбит/с = 210 бит/с = 1024 бит/с,
1 Мбит/с = 210 Кбит/с = 1024 Кбит/с,
1 Гбит/с = 210 Мбит/с = 1024 Мбит/с.

Дополнительно по данной категории

06.03.2010 - Сумматоры
06.03.2010 - Регистр
06.03.2010 - Триггер
20.02.2010 - Построение логических схем
01.02.2010 - Конъюнкция
Нет комментариев. Почему бы Вам не оставить свой?
Ваше сообщение будет опубликовано только после проверки и разрешения администратора.
Ваше имя:
Комментарий:
Смайл - 01 Смайл - 02 Смайл - 03 Смайл - 04 Смайл - 05 Смайл - 06 Смайл - 07 Смайл - 08 Смайл - 09 Смайл - 10 Смайл - 11 Смайл - 12 Смайл - 13 Смайл - 14 Смайл - 15 Смайл - 16 Смайл - 17 Смайл - 18
Секретный код:
Секретный код
Повторить:

Поиск по сайту

Поиск

Авторизация


Добро пожаловать,
Аноним

Регистрация или входРегистрация или вход
Потеряли пароль?Потеряли пароль?

Ник:
Пароль:


Содержание:1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21
Правообладателям
Образование