Экзамен по основам теории информации

Вопросы к экзамену по ОТИ

Результаты
обучения: умения, знания и общие
компетенции

Показатели
оценки результата

Критерии
результата оценки

У1
применять
правила недесятичной арифметики;

-выполнение
арифметических операций над
действительными числами, представленными
в различных системах счисления;

-использование
и составление таблиц сложения для
различных систем счисления;

— действительные
числа из различных систем счисления
приведены к одной системе счисления;

-соответствие
результата эталону ответа;

-применение
стандартной программы Калькулятор в
режиме Инженерный (Office
2003) или Программист (Office
2007) для автоматизации вычислений в
системах счисления 2, 8, 10, 16;

У2
переводить
числа из одной системы счисления в
другую;

-перевод
действительных чисел из системы
счисления р в 10-ю систему счисления;

-перевод
действительных чисел из 10-й системы
счисления в систему счисления р;

-перевод
действительных чисел из систем
счисления, являющихся степенями двойки
(2, 4, 8, 16);

-перевод
действительных чисел из системы
счисления p
в систему счисления q;

-ход решения
соответствует данному алгоритму
перевода из одной системы счисления
в другую;

-применение
метода сокращения для действительных
чисел из систем счисления, являющихся
степенями двойки (2, 4, 8, 16);

-соответствие
результата эталону ответа;

У3
повышать
помехозащищен­ность и помехоустойчивость
передачи информации;

-применение
основных принципов помехоустойчивого
кодирования;

-коды с обнаружением
ошибок;

-коды с исправлением
ошибок;

-вычисление
расстояния d
между кодами;

-вычисление
вектора ошибки е;

-вычисление веса
вектора ошибки е;

-введение
избыточности в кодовые комбинации;

-исправление
ошибки в принятом кодовом слове;

-применение
логической операции сумма по модулю
два;

-применение
метода проверки на четность (нечетность);

-построение
проверочной матрицы по порождающей
матрице;

-применение
свойств линейных кодов для решения
задач;

-выполнение
перевода числа из двоичной системы
счисления в десятичную;

-определение
ошибочного кода;

-инвертирование
ошибочного кода;

-соответствие
результата эталону ответа;

— ход решения
соответствует данному алгоритму;

У4
кодировать
информацию (символьную, числовую,
графическую, звуковую, видео);

-кодирование и
раскодирование целых чисел без знака;

-кодирование и
раскодирование целых чисел со знаком;

-представление
целых чисел в прямом, обратном и
дополнительном кодах;

-кодирование и
раскодирование вещественных чисел;

-кодирование и
раскодирование текстовой информации,
с использованием таблиц кодировки
ASCII;

-кодирование
и раскодирование звуковой информации;

-кодирование
и раскодирование графической информации;

-соответствие
результата эталону ответа;

— ход решения
соответствует данному алгоритму;

-перевод числа
в двоичную систему счисления и выделение
из него мантиссы, порядка и знака;

-вычисление
смещения порядка;

-правильно выбрана
нужная часть таблицы ASCII
для кодирования и декодирования
символьной информации (числовой,
русской, английской);

-правильный
расчет частоты дискретизации;

-результаты
кодирования и раскодирования информации
соответствуют эталону ответа;

У5
сжимать
и архивировать информацию;

-применение
алгоритмов сжатия информации без
потерь;

-архивирование
с расщеплением файла на определенное
количество байт;

-умение
профессионально пользоваться
программами-архиваторами;

-результат
применения алгоритма соответствует
эталону ответа;

-выполнено
архивирование файла с расщеплением
на заданное количество байт в заданной
программе-архиваторе;

-выполнено
извлечение из архива файла;

Знать:

З1
основные понятия теории информации;

— перечисление
единиц измерения информации;

-чтение кодовых
таблиц;

-знание формул
для вычисле­ния информационного
объема файла;

-определение
количества информации;

-представление
понятий квантование, дискретизация;

-знание формулы
для расчета энтропии;

-полное перечисление
основных единиц измерения информации;

-правильное
чтение кодовых таблиц;

-правильное
воспроизведение формул для расчета
информационного объема файла, количества
информации, энтропии;

-описание принципов
квантования и дискретизации;

З2
виды информации и способы представления
ее в электронно-вычислительных машинах
(ЭВМ);

-перечисление
различных видов информации;

-описание основных
способов представления различной
информации в ЭВМ;

-полное перечисление
основных видов информации;

-воспроизведение
алгоритмов представления целочисленной
числовой информации со знаком и без
знака в прямом, обратном и дополнительном
кодах;

-воспроизведение
алгоритма для представления вещественных
чисел в памяти ЭВМ;

-правильное
определение понятий мантисса, порядок,
знак числа;

-различение
кодовых таблиц ASCII,
UNICODE,
Windows-1251,
CP-866,
КОИ-8;

-правильное
описание способов для представления
звуковой и графической информации в
ЭВМ;

З3
свойства
информации;

-перечисление
основных свойств информации;

-полное и правильное
перечисление основных свойств
информации;

-приведение
примеров свойств информации;

З4
меры и
единицы измерения информации;

-перечисление
основных мер и единиц измерения
информации;

-полное и правильное
перечисление основных мер и единиц
измерения информации;

З5
принципы
кодирования и декодирования;

-перечисление
основных принципов кодирования
информации;

— перечисление
основных принципов декодирования
информации;

-полное и правильное
воспроизведение прин­ципов кодирования
и декодирования чис­ловой, текстовой,
зву­ко­вой и графической информации;

З6
основы передачи данных;

-понимание основ
передачи данных;

-полное и правильное
воспроизведение схемы передачи данных;

З7
каналы
передачи информации.

-перечисление
каналов передачи информации;

-полное и правильное
перечисление каналов передачи
информации;

бюджетное
профессиональное образовательное учреждение

Вологодской области

«Сокольский лесопромышленный политехнический техникум»

УТВЕРЖДАЮ

И.о. директора БПОУ ВО

«Сокольский ЛПТ»

____________ Л.Н. Ломтева

 
«30» августа 2019 г.

КОМПЛЕКТ

КОНТРОЛЬНО — ОЦЕНОЧНЫХ СРЕДСТВ

по учебной
дисциплине

ОП.12. ОСНОВЫ ТЕОРИИ ИНФОРМАЦИИ

для специальности

09.02.06
Сетевое и системное администрирование

квалификация выпускника

СЕТЕВОЙ И СИСТЕМНЫЙ АДМИНИСТРАТОР

Сокол

2019

Комплект контрольно-оценочных средств разработан с
учетом требований Федерального государственного образовательного стандарта
среднего профессионального образования по специальности 09.02.06 Сетевое и
системное администрирование
, на основе рабочей программы учебной дисциплины
ОП.12. Основы теории информации.

Разработчик:

Киренцова
Н.М., преподаватель БПОУ ВО «Сокольский ЛПТ»

Рассмотрено:

на заседании предметной
цикловой комиссии информационных и сетевых технологий «30» августа 2019г.,
протокол № 1

председатель
комиссии_________________ Н.А. Ефимова

                     
                                                          (подпись)
      

СОГЛАСОВАНО:  

Начальник отдела ИТ

ПАО «Сокольский ЦБК»

____________Д.А. Киренцов

«30» августа 2019 г.

Начальник отдела ИТ

ООО «Сухонский КБК»

____________М.А. Паншина

«30» августа 2019 г.

СОДЕРЖАНИЕ

1. Паспорт комплекта
контрольно-оценочных средств                               4

2. Результаты освоения учебной
дисциплины, подлежащие проверке
4

3. Оценка освоения учебной
дисциплины
6

3.1. Формы и методы оценивания6

3.2. Задания для оценки освоения учебной
дисциплины
9

4. Контрольно-оценочные
материалы для промежуточной
аттестации по учебной дисциплине

5. Лист согласования                                                                                   122

1.
ПАСПОРТ КОМПЛЕКТА
КОНТРОЛЬНО-ОЦЕНОЧНЫХ СРЕДСТВ

Контрольно-оценочные средства (КОС)
предназначены для контроля и оценки образовательных достижений студентов,
освоивших программу учебной дисциплины ОП.12. Основы теории информации.

КОС включают контрольные материалы для
проведения текущего контроля и промежуточной аттестации в форме экзамена.

2. РЕЗУЛЬТАТЫ ОСВОЕНИЯ УЧЕБНОЙ ДИСЦИПЛИНЫ, ПОДЛЕЖАЩИЕ
ПРОВЕРКЕ

В результате аттестации по учебной дисциплине
осуществляется комплексная проверка следующих умений и знаний, а также динамика
формирования общих компетенций.

В результате освоения учебной дисциплины ОП.12. Основы
теории информации
студент должен обладать предусмотренными ФГОС по
специальности СПО 09.02.06 Сетевое и системное администрирование следующими
умениями, знаниями, которые формируют профессиональные компетенции, и общими компетенциями:

ОК 01.
Выбирать способы решения задач профессиональной деятельности, применительно к
различным контекстам.

ОК 02.
Осуществлять поиск, анализ и интерпретацию информации, необходимой для
выполнения задач профессиональной деятельности.

ОК 04.
Работать в коллективе и команде, эффективно взаимодействовать с коллегами,
руководством, клиентами.

ОК 05.
Осуществлять устную и письменную коммуникацию на государственном языке с учетом
особенностей социального и культурного контекста.

ОК 09.
Использовать информационные технологии в профессиональной деятельности.

ОК 10.
Пользоваться профессиональной документацией на государственном и иностранном
языках.

Умения:

У1 Применять закон аддитивной информации.

У2 Применять теорему Котельникова.

У3 Использовать формулу Шеннона.

Знания:                             

З1. Виды и формы представления информации;

З2. Методы и средства определения количества
информации;

З3. Принципы кодирования и декодирования
информации;

З4. Способы
передачи цифровой информации;

З5. Методы повышения помехозащищенности передачи и приема
данных, основы теории сжатия данных

З6. Методы криптографической защиты информации

З7. Способы генерации ключей

Содержание дисциплины ориентировано на подготовку
студентов к овладению профессиональными компетенциями (ПК):

ПК 1.3. Обеспечивать защиту информации
в сети с использованием программно-аппаратных средств.

Формой  промежуточной аттестации по учебной дисциплине
является экзамен.

3. ОЦЕНКА
ОСВОЕНИЯ УЧЕБНОЙ ДИСЦИПЛИНЫ

3.1.
Формы и методы контроля

Контроль и оценка освоения учебной дисциплины по темам

Элемент учебной дисциплины

Формы и методы контроля

Текущий контроль

Промежуточная аттестация

Форма контроля

Самостоятельная работа

Проверяемые

ОК, У, З

Форма контроля

Проверяемые  ОК, У, З

Раздел 1. Базовые понятия теории информации

Устный опрос по теме «Формальное
представление знаний. Виды информации»

Устный опрос по теме «Способы
измерения информации»

Устный опрос по теме
«
Вероятностный подход к
измерению информации»

Проверочная работа
(тест) по теме
«Базовые понятие
теории информации»

Практическая работа «Способы хранения обработки и передачи информации»

Практическая
работа
«Измерение
количества информации»

Информация в материальном мире,
информация в живой природе, информация в человеческом обществе, информация в
науке, классификация информации.

Дисперсия случайной величины

ОК 01, ОК 02,

ОК 04, ОК 05,

ОК 09, ОК 10,, З1, З2, З3, З4

Экзамен

ОК 01, ОК 02,

ОК 04, ОК 05,

ОК 09, ОК 10,, З1, З2, З3, З4

Раздел 2. Информация и энтропия

Устный опрос по теме «Теорема
отсчетов»

Устный опрос по теме «Понятие
энтропии. Виды энтропии»

Устный опрос по теме «Смысл
энтропии Шеннона»

Практическая
работа

«Применение теоремы отчетов»

Практическая работа «Определение пропускной способности канала»

Практическая работа «Интерполяционная
формула Уиттекера-Шеннона, частота Найквиста»

Практическая работа «Поиск
энтропии случайных величин»

Практическая работа «Энтропийное
кодирование»

Практическая работа «Дифференциальная
энтропия»

Практическая
работа

«Расчет вероятностей. Составление закона распределения вероятностей»

Математическая модель системы
передачи информации

b-арная энтропия, взаимная энтропия

Закон аддитивности информации

ОК 01, ОК 02,

ОК 04, ОК 05,

ОК 09, ОК 10, У1, У2, У3, З3, З4, З5

Экзамен

ОК 01, ОК 02,

ОК 04, ОК 05,

ОК 09, ОК 10, У1, У2, У3, З3, З4, З5

Раздел 3. Защиты и передача информации

Устный опрос по теме «Сжатие
информации»

Тест на тему «Сжатие информации»

Устный опрос по теме «Кодирование»

Тест «Кодирование информации»

Практическая работа «ПУ кодирование»

Практическая работа «Адаптивное арифметическое кодирование.

Дельта-кодирование»

Практическая
работа

«
Цифровое
кодирование и аналоговое кодирование. Таблично-символьное кодирование»

Применение алгоритмов кодирования в
архиваторах для обеспечения продуктивной работы в WINDOWS

Дельта-кодирование

ОК 01, ОК 02,

ОК 04, ОК 05,

ОК 09, ОК 10, З5, У3

Экзамен

ОК 01, ОК 02,

ОК 04, ОК 05,

ОК 09, ОК 10, З5, У3

Раздел 4. Основы теории защиты информации

Устный опрос по теме «Стандарты
шифрования данных. Криптография»

Тест по теме «Криптография»

Практическая работа «Практическое применение криптографии. Изучение и
сравнительный анализ методов шифрования»

Практическая работа «Криптография
с симметричным ключом, с открытым ключом»

Практическая работа «Шифрование с
использованием перестановок»

Практическая работа «Шифрование с
использованием замен»

Практическая работа «Практическое применение различных алгоритмов
сжатия.

Сравнение и анализ
архиваторов.  Кодирование Хаффмана»

Различные методы шифрования

ОК 01, ОК 02,

ОК 04, ОК 05,

ОК 09, ОК 10, У3, З5, З6, З7

Экзамен

ОК 01, ОК 02,

ОК 04, ОК 05,

ОК 09, ОК 10, У3, З5, З6, З7

3.2. ЗАДАНИЯ ДЛЯ ОЦЕНКИ ОСВОЕНИЯ
УЧЕБНОЙ ДИСЦИПЛИНЫ

РАЗДЕЛ 1. БАЗОВЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ

УСТНЫЙ ОПРОС ПО ТЕМЕ

«ФОРМАЛЬНОЕ ПРЕДСТАВЛЕНИЕ ЗНАНИЙ. ВИДЫ ИНФОРМАЦИИ»

Вопросы:

  1. Понятие
    теории информации.
  2. Формальное
    представление данных.
  3. Виды
    информации.

Критерии
оценки устного ответа:

«5
(отлично)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, литературным языком: ответ самостоятельный. 

«4
(хорошо)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, при этом допущены две-три несущественные ошибки,
исправленные по требованию преподавателя. 

«3
(удовлетворительно)»
: ответ полный,
но при этом допущена существенная ошибка, или неполный, несвязный. 

«2
(неудовлетворительно)»
: при ответе
обнаружено непонимание студентом основного содержания учебного материала или
допущены существенные ошибки, которые студент не смог исправить при наводящих
вопросах преподавателя.

УСТНЫЙ ОПРОС ПО ТЕМЕ

«СПОСОБЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИ»

Вопросы:

  1. Базовые
    понятия теории информации.
  2. Способы
    измерения информации.

Критерии
оценки устного ответа:

«5
(отлично)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, литературным языком: ответ самостоятельный. 

«4
(хорошо)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, при этом допущены две-три несущественные ошибки,
исправленные по требованию преподавателя. 

«3
(удовлетворительно)»
: ответ полный,
но при этом допущена существенная ошибка, или неполный, несвязный. 

«2
(неудовлетворительно)»
: при ответе
обнаружено непонимание студентом основного содержания учебного материала или
допущены существенные ошибки, которые студент не смог исправить при наводящих
вопросах преподавателя.

УСТНЫЙ ОПРОС ПО ТЕМЕ

«ВЕРОЯТНОСТНЫЙ ПОДХОД К ИЗМЕРЕНИЮ
ИНФОРМАЦИИ»

Вопросы:

  1. Вероятностный
    подход к измерению информации
    .
  2. Решение
    упражнений по данной теме.

Критерии
оценки устного ответа:

«5
(отлично)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, литературным языком: ответ самостоятельный. 

«4
(хорошо)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, при этом допущены две-три несущественные ошибки,
исправленные по требованию преподавателя. 

«3
(удовлетворительно)»
: ответ полный,
но при этом допущена существенная ошибка, или неполный, несвязный. 

«2
(неудовлетворительно)»
: при ответе
обнаружено непонимание студентом основного содержания учебного материала или
допущены существенные ошибки, которые студент не смог исправить при наводящих
вопросах преподавателя.

ПРОВЕРОЧНАЯ РАБОТА (ТЕСТ) ПО ТЕМЕ
«БАЗОВЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ»

Вариант 1

Выберите правильный вариант ответа:

1)                  
Информацию, изложенную на доступном для
получателя языке, называют…

a)      
понятной;

b)      
актуальной;

c)      
достоверной;

d)      
полной.

2)                  
Наибольший объем информации человек
получает при помощи…

a)      
вкусовых рецепторов;

b)      
органов осязания;

c)      
органов зрения;

d)      
органов слуха;

e)      
органов обоняния.

3)                  
К формальным языкам можно отнести…

a)      
язык программирования;

b)      
русский язык;

c)      
китайский язык;

d)      
язык жестов.

4)                  
Материальный объект, предназначенный
для хранения информации, называется…

a)      
носитель информации;

b)      
получатель информации;

c)      
хранитель информации;

d)      
канал связи.

5)                  
Сообщение, уменьшающее неопределенность
знаний в два раза, несет…

a)      
1 бит;

b)      
4 бита;

c)      
1 байт;

d)      
2 бита.

6)                  
Алфавит языка состоит из 16 знаков.
Сколько информации несет сообщение длиной 32 символа?

a)      
16 бит;

b)      
128 бит;

c)      
256 бит;

d)      
80 бит.

7)                  
Сколько байт в словах «информационные
технологии» (без учета кавычек)?

a)      
24 байта;

b)      
192 байт;

c)      
25 байт;

d)      
2 байта.

8)                   
Сколько байт в 4 Мбайт?

a)      
4000;

b)      
222;

c)      
212;

d)      
420.

9)                  
В какой из последовательностей единицы
измерения указаны в порядке возрастания

a)      
мегабайт, килобайт, байт, гигабайт;

b)      
байт, килобайт, мегабайт, гигабайт;

c)      
гигабайт, килобайт, мегабайт, байт;

d)      
гигабайт, мегабайт, килобайт, байт.

10)              
Процесс представления информации
(сообщения) в виде кода называется…

a)      
декодированием;

b)      
дешифрованием;

c)      
кодированием;

d)      
дискретизацией.

11)              
Является ли верным утверждение: «В
позиционной системе счисления количественный эквивалент цифры зависит от места
цифры в записи числа»?

12)              
Алфавит системы счисления 0, 1, 2, 3,
4, 5. Какая это система счисления?

a)      
шестеричная;

b)      
пятеричная;

c)      
восьмеричная;

d)      
римская.

13)              
Двоичное число 10012 соответствует десятичному числу…

a)      
100110;

b)      
610;

c)      
910;

d)      
810.

14)              
Найти двоичный эквивалент числа Х, представленного в десятичной системе
счисления,
если Х = 5.

a)       1102;

b)       1012;

c)       10012;

d)       112.

15)              
Укажите самое большое число.

a)      
14416;

b)      
14410;

c)      
1446;

d)      
1448.

a)      
111111112;

b)      
3778;

c)      
FF16;

d)      
22610.

17)              
Сложите числа 5А16+438+1112+510,
результат получите в двоичной системе счисления.

a)      
111100012;

b)      
100000112;

c)      
100010012;

d)      
100111012.

18)              
Пусть небольшая книжка, сделанная с
помощью компьютера, содержит 15 страниц; на каждой странице — 40 строк, в
каждой строке — 60 символов. Сколько информации она содержит?

a)      
36000 байт;

b)      
19200 байт;

c)      
256 бит;

d)      
2400 байт

19)              
Изображение представляющее собой
совокупность точек (пикселей) разных цветов называется…

a)      
векторным;

b)      
цветным;

c)      
аналоговым;

d)      
растровым.

20)              
Многопроходная линия для
информационного обмена между устройствами компьютера называется…

a)      
модемом;

b)      
контроллером;

c)      
магистралью;

d)      
провайдером.

21)              
Устройством вода информации является…

a)      
сканер;

b)      
дисковод;

c)      
принтер;

d)      
клавиатура.

22)              
Комплекс взаимосвязанных программ,
обеспечивающий пользователю удобный способ общения с программами, называется…

a)      
утилитой;

b)      
драйвером;

c)      
интерпретатором;

d)      
интерфейсом.

23)              
Расширение имени файла характеризует…

a)      
время создания файла;

b)      
тип информации, содержащейся в файле;

c)      
объем файла;

d)      
место, занимаемое файлом на диске.

24)              
Архивный файл представляет собой…

a)      
файл, которым долго не пользовались;

b)      
файл, защищенный от
несанкционированного доступа;

c)      
файл, защищенный от копирования;

d)      
файл, сжатый с помощью архиватора.

25)              
По среде обитания компьютерные вирусы
классифицируют на…

a)      
неопасные, опасные и очень опасные;

b)      
паразиты, репликаторы, невидимки,
мутанты, троянские;

c)      
сетевые, файловые, загрузочные,
макровирусы.

26)              
К антивирусным программам не
относятся…

a)      
интерпретаторы;

b)      
фаги;

c)      
ревизоры;

d)      
сторожа.

27)              
В каком году появилась первая ЭВМ?

a)      
1823;

b)      
1951;

c)      
1980;

d)      
1905.

28)              
На какой электронной основе созданы ЭВМ
I
поколения?

a)      
транзисторы;

b)      
электронно-вакуумные лампы;

c)      
зубчатые колеса;

d)      
реле.

Вариант 2

Выберите правильный вариант ответа:

1)      
Информацию, отражающую истинное
положение вещей, называют…

a)      
актуальной;

b)      
понятной;

c)      
полезной;

d)      
достоверной.

2)      
Тактильную информацию человек получает
посредством…

a)      
специальных приборов;

b)      
органов слуха;

c)      
термометра;

d)      
органов осязания.

3)      
К естественным языкам можно отнести…

a)      
язык программирования;

b)      
английский язык;

c)      
язык математики;

d)      
язык химических формул.

4)      
Информация в компьютере хранится,
передается и  обрабатывается в виде…

a)      
знаков и импульсов;

b)      
сигналов и импульсов;

c)      
импульсов;

d)      
символов.

5)      
Если сообщение несет 1 бит информации,
то оно уменьшает неопределенность знаний…

a)      
в два раза;

b)      
в один раз;

c)      
в три раза;

d)      
на 8 бит.

6)      
В зоопарке 64 клетки, тигр сидит в
клетке номер 16. Сколько информации несет это сообщение?

a)      
16 бит;

b)      
256 бит;

c)      
6 бит;

d)      
64 бита.

7)      
Сколько байт в словосочетании  «Системы
счисления» (без учета кавычек)?

a)      
17 байт;

b)      
2 бита;

c)      
8 бит;

d)      
136 бит.

a)      
1024 байт;

b)      
210 бит;

c)      
230 байт;

d)      
1000 бит.

9)      
В какой из последовательностей единицы
измерения указаны в порядке убывания.

a)      
гигабайт, мегабайт, килобайт, байт;

b)      
мегабайт, килобайт, байт, гигабайт;

c)      
гигабайт, килобайт, мегабайт, байт;

d)      
байт, килобайт, мегабайт, гигабайт.

10)   Процесс преобразования кода к форме исходной символьной
системы, т.е. получение исходного сообщения называется…

a)      
декодированием;

b)      
кодированием;

c)      
шифрованием;

d)      
дискретизацией.

11)   Для какого класса
систем счисления выполняется условие: количественный эквивалент цифры не
зависит от места цифры в записи числа?

a)       для
позиционного;

b)       для
непозиционного.

12)   Алфавит системы счисления 0, 1, 2, 3, 4, 5, 6. Какая это
система счисления?

a)      
восьмеричная;

b)      
семеричная;

c)      
римская;

d)      
шестеричная.

13)   Двоичное число 11002 соответствует десятичному числу…

a)      
1110;

b)      
1210;

c)      
910;

d)      
110010.

14)   Найти
двоичный эквивалент числа Х, представленного в десятичной системе счисления,
если Х = 6.

a)      
111;

b)      
11;

c)      
011;

d)      
110.

15)   Укажите самое маленькое число.

a)      
14416

e)      
14410

f)       
1446

g)      
1448

a)      
101011112

b)      
2568

c)      
АF16

d)      
17510

17)   Сложите числа А516+238+1012+1010,
результат получите в двоичной системе счисления.

a)      
11000111;

b)      
11101000;

c)      
10000001;

d)      
10000011.

18)   Сколько информации содержит лист текста, сделанный с
помощью компьютера, если на странице — 30 строк, в каждой строке — 50 символов?

a)      
16 Кбит;

b)      
256 бит;

c)      
1500 бит;

d)      
12000 бит.

19)   Минимальный участок изображения, цвет которого можно задать
независимым образом называется…

a)      
бит;

b)      
пиксель;

c)      
примитив;

d)      
растр.

20)        
Во время исполнения прикладная
программа хранится…

a)      
в видеопамяти;

b)      
в процессоре;

c)      
на жестком диске;

d)      
в оперативной памяти.

21)        
Устройство для подключения компьютера к
сети Интернет, называется…

a)      
модем;

b)      
факс;

c)      
плоттер;

d)      
браузер.

22)   Программа, позволяющая
управлять внешним устройством компьютера, называется …

a)       браузером;

b)       драйвером;

c)       операционная
система;

d)       система
программирования.

23)   Исполняемые файлы имеют расширение…

a)      
doc, txt;

b)      
txt, sys;

c)      
sys, exe;

d)      
com, exe.

24)   Программа для уменьшения информационного объема (сжатия)
файлов, называется …

a)      
утилитой;

b)      
драйвером;

c)      
архиватором;

d)      
компилятором.

25)   Компьютерные программы-вирусы…

a)      
возникают в результате сбоев в
аппаратных средствах компьютерах;

b)      
пишутся специально для нанесения ущерба
пользователям ПК;

c)      
имеют биологическое происхождение;

d)      
являются следствием ошибок в
операционной системе.

26)    Вирусы поражающие загрузочные секторы дисков, называются…

a)      
загрузчиками;

b)      
файловыми;

c)      
загрузочными;

d)      
сетевыми.

27)   Кого называют первой в истории женщиной-программистом:

a)      
Софью Ковалевскую;

b)      
Марию Склодовскую-Кюри;

c)      
Аду Лавлейс.

28)   Сколько поколений ЭВМ принято считать созданными до нашего
времени?

a)      
три;

b)      
четыре;

c)      
шесть;

d)      
два.

Вариант 3

Выберите правильный вариант ответа:

29)   Информацию, существенную и важную в настоящий момент,
называют:

a)      
понятной;

b)      
полезной;

c)      
достоверной;

d)      
актуальной.

30)   По форме представления информация подразделяется на…

a)      
книжную, газетную, компьютерную;

b)      
текстовую, числовую, графическую, звуковую;

c)      
тактильную, вкусовую, обонятельную,
осязательную, визуальную, звуковую;

d)      
массовую, личную, специальную.

31)   В общей схеме передачи информации между источником и
приемником информации должен существовать…

a)      
канал связи;

b)      
электрическое поле;

c)      
воздух;

d)      
линия связи.

32)   Книги, картины, дискеты позволяют информацию в основном…

a)      
передавать и обрабатывать;

b)      
обрабатывать и хранить;

c)      
хранить и передавать;

d)      
запоминать.

33)   Если сообщение несет 2 бита информации, то оно уменьшает
неопределенность знаний…

a)      
в два раза;

b)      
в четыре раза;

c)      
в три раза;

d)      
на 8 бит.

34)   В доме 32 квартиры, день рождения справляют в квартире номер
10. Сколько информации несет это сообщение?

a)      
10 байт;

b)      
5 бит;

c)      
64 бита;

d)      
4 бита.

35)   Сколько байт в словосочетании «Тактильная информация» (без
учета кавычек)?

a)      
25 байт;

b)      
5 байт;

c)      
21 байт;

d)      
2 байта.

a)      
1024 байт;

b)      
210 бит;

c)      
230 байт;

d)      
10000 бит.

37)   Минимальной единицей измерения информации является…

a)      
1 гигабайт;

b)      
1 бод;

c)      
1 байт;

d)      
1 бит.

38)    Сигнал, принимающий лишь конечное число значений,
называется…

a)      
аналоговым;

b)      
частично дискретный;

c)      
дискретны;

d)      
частично аналоговый.

39)   В какой системе
счисления представлена информация, хранящаяся в компьютере?

a)       в
троичной;

b)       в
десятичной;

c)       в
двоичной;

d)       в
римской.

40)   Какое количество цифр используется в восьмеричной системе
счисления?

41)   Двоичное число 1012 соответствует десятичному числу

a)      
610;

b)      
1010;

c)      
10110;

d)      
510.

42)   Найдите двоичный эквивалент числа Х, представленного в
десятичной системе счисления, если Х=8.

a)      
1000;

b)      
1001;

c)      
1010;

d)      
1110.

43)   Укажите самое маленькое число.

a)      
11116

h)      
11110

i)       
1116

j)       
1118

a)      
101012

b)      
268

c)      
1516

d)      
2110

45)   Сложите числа А916+158+1102+1110,
результат получите в двоичной системе счисления.

a)      
11001000;

b)      
11111110;

c)      
10000001;

d)      
11100100.

46)   Сколько информации содержит лист текста, сделанный с
помощью компьютера, если на странице — 30 строк, в каждой строке — 40 символов?

a)      
16 Кбит;

b)      
9600 бит;

c)      
1200 бит;

d)      
256бит.

47)   Какие изображения формируются из графических примитивов
(линий, окружностей, прямоугольников и т.д.)

a)      
векторные;

b)      
растровые.

48)   К внешним запоминающим устройствам относится…

a)      
процессор;

b)      
монитор;

c)      
CD-диск;

d)      
клавиатура.

49)   Укажите устройства ввода.

a)      
принтер, клавиатура, джойстик;

b)      
графический планшет, клавиатура,
сканер;

c)      
мышь, световое перо, винчестер;

d)      
телефакс, модем, принтер.

50)   Совокупность  программ, обеспечивающих совместное
функционирование всех устройств компьютера и предоставляющих пользователю
доступ к ресурсам компьютера, называется…

a)      
утилитой;

b)      
драйвером;

c)      
операционной системой;

d)      
интерфейсом.

51)   Укажите тип файлов со следующими расширениями: *.txt, *.doc.

a)      
исполнимые файлы;

b)      
графические файлы;

c)      
текстовые файлы.

d)      
звуковые файлы.

52)   Архивный файл отличается от исходного файла тем, что…

a)      
доступ к нему занимает меньше времени;

b)      
легче защищать от вирусов;

c)      
более удобен для редактирования;

d)      
занимает меньше места на диске.

53)   Отличительными особенностями компьютерного вируса являются…

a)      
легкость распознавания и уничтожения;

b)      
способность к самокопированию и
самостоятельному запуску;

c)      
значительный объем программного кода;

d)      
трудность распознавания и уничтожения.

54)   Вирус, заражение которым может произойти при работе с
электронной почтой, называется…

a)      
файловым;

b)      
макровирусом;

c)      
сетевым;

d)      
загрузочные.

55)   Когда был создан первый арифмометр – механическое счетное
устройство?

a)      
в XIX веке;

b)      
в XX веке;

c)      
в XIV веке.

56)   Электронной базой ЭВМ III поколения является…

a)      
транзисторы;

b)      
БИС;

c)      
электронно-вакуумные лампы;

d)      
интегральные схемы.

Вариант 4

Выберите
правильный вариант ответа:

29)              
Информацию, не зависящую от личного
мнения или суждения, называют:

a)      
объективной;

b)      
актуальной;

c)      
достоверной;

d)      
понятной.

30)              
Визуальной называют информацию, которая
воспринимается человеком посредством…

a)      
вкусовых рецепторов;

b)      
органов осязания;

c)      
органов зрения;

d)      
органов слуха;

e)      
органов обоняния.

31)              
Язык программирования относится к…

a)      
формальным языкам;

b)      
естественным языкам.

32)              
Носителем графической информации не
может являться…

a)      
дискета;

b)      
грампластинка;

c)      
холст;

d)      
бумага.

33)              
Сообщение, уменьшающее неопределенность
знаний в 4 раза, несет

a)      
2 бита информации;

b)      
4 бита информации;

c)      
16 бит информации;

d)      
1 байт информации.

34)              
Алфавит языка состоит из 32 знака.
Сколько информации несет сообщение длиной 16 символа?

a)      
16 бит;

b)      
128 бит;

c)      
256 бит;

d)      
80 бит.

35)              
Сколько бит в слове «моделирование»
(без учета кавычек)?

a)      
13 бит;

b)      
104 бит;

c)      
12 бит;

d)      
2 бита.

36)              
Сколько бит в 1 Кбайте?

a)      
1024;

b)      
213 ;

c)      
1000;

d)      
210 .

37)              
В какой из последовательностей единицы
измерения указаны в порядке возрастания

a)      
мегабайт, килобайт, байт, гигабайт;

b)      
байт, килобайт, мегабайт, гигабайт;

c)      
гигабайт, килобайт, мегабайт, байт;

d)      
гигабайт, мегабайт, килобайт, байт.

38)              
Преобразование непрерывных изображений
и звука в набор дискретных значений в форме кодов называют…

a)      
декодированием;

b)      
дешифрованием;

c)      
кодированием;

d)      
дискретизацией.

39)              
Система счисления — это …

a) совокупность цифр;

b)       совокупность
цифр 0, 1;

c) совокупность цифр I, V, X, L, C,
D, M;

d)       способ
записи чисел с помощью заданного набора специальных знаков (цифр).

40)              
Какое количество цифр используется в шестнадцатеричной системе
счисления?

a)      
16;

b)      
15;

c)      
6;

d)      
8.

41)              
Двоичное число 11012 соответствует десятичному числу

a)      
110110;

b)      
1310;

c)      
1010;

d)      
810.

42)              
Найти двоичный эквивалент числа Х, представленного в десятичной системе
счисления,
если Х = 7.

a)       110;

b)       101;

c)       111;

d)       1001.

43)              
Укажите самое большое число.

a)      
2516

b)      
2510

c)      
256

d)      
258

a)      
101010012

b)      
2538

c)      
AB16

d)      
17110

45)              
Сложите числа А416+368+1102+1010,
результат получите в двоичной системе счисления.

a)      
11110011;

b)      
11010010;

c)      
10010010;

d)      
11000110.

46)              
Пусть небольшая книжка, сделанная с
помощью компьютера, содержит 5 страниц; на каждой странице — 120 строк, в
каждой строке — 60 символов. Сколько информации она содержит?

a)      
36000 байт;

b)      
19200 байт;

c)      
256 бит;

d)      
2400 байт

47)              
Количество информации, которое
используется для кодирования цвета точки изображения, называется…

a)      
палитрой;

b)      
разрешающей способностью;

c)      
глубиной цвета;

d)      
дискретизацией.

48)   Системный диск необходим для…

a)      
хранения архивных файлов;

b)      
систематизации файлов;

c)      
лечения компьютера от вирусов;

d)      
загрузки операционной системы.

49)   Дисковод – это устройство, предназначенное для …

a)      
чтения/записи данных с внешнего
носителя.

b)      
хранения компакт-дисков;

c)      
долговременного хранения информации;

d)      
вывода информации на внешний носитель;

50)   Процесс, в результате которого файлы записываются в
секторы, последовательно идущие друг за другом, называется…

a)      
дефрагментацией;

b)      
форматированием;

c)      
архивацией;

d)      
копированием.

51)   Порядок хранения файлов на диске определяется используемой

a)      
операционной системой;

b)      
файловой системой.

52)   Укажите расширение для архивных файлов.

a)      
*.rar, *.zip;

b)      
*.bmp, ipg;

c)      
mp3, wav.

53)   Заражение компьютерным вирусом может произойти в процессе…

a)      
печати на принтере;

b)      
работы с файлами;

c)      
форматирования дискеты;

d)      
 при выключении компьютера.

54)   Какие типы файлов может заразить макровирус?

a)      
графические файлы;

b)      
звуковые и видеофайлы;

c)      
текстовые файлы с расширением doc.

55)   На какой электронной основе созданы ЭВМ II поколения?

a)      
транзисторы;

b)      
электронно-вакуумные лампы;

c)      
реле;

d)      
БИС.

56)   Какой фирмой и в каком году  были созданы первые
персональные компьютеры?

a)      
IBM в 1991 году;

b)      
Apple в 1982 году;

c)      
IBM в 1982 году;

d)      
Apple в 1990 году.

Ответы к тестовым
заданиям.  
I вариант.

1.                  
 

2.                  
 

3.                  
 

4.                  
 

5.                  
 

6.                  
 

7.                  
 

8.                  
 

9.                  
 

10.               
 

11.               
 

12.               
 

13.               
 

14.               
 

а

с

а

а

а

b

c

b

b

c

a

a

c

b

15.               
 

16.               
 

17.               
 

18.               
 

19.               
 

20.               
 

21.               
 

22.               
 

23.               
 

24.               
 

25.               
 

26.               
 

27.               
 

28.               
 

a

d

c

a

d

c

d

d

b

d

c

a

b

b

Ответы к тестовым
заданиям. 
II вариант.

1.                  
 

2.                  
 

3.                  
 

4.                  
 

5.                  
 

6.                  
 

7.                  
 

8.                  
 

9.                  
 

10.               
 

11.               
 

12.               
 

13.               
 

14.               
 

d

d

b

c

a

c

a

a

a

b

b

b

b

d

15.               
 

16.               
 

17.               
 

18.               
 

19.               
 

20.               
 

21.               
 

22.               
 

23.               
 

24.               
 

25.               
 

26.               
 

27.               
 

28.               
 

b

b

a

d

b

d

a

b

d

c

b

c

c

b

Ответы к тестовым заданиям.  III вариант.

1.                  
 

2.                  
 

3.                  
 

4.                  
 

5.                  
 

6.                  
 

7.                  
 

8.                  
 

9.                  
 

10.               
 

11.               
 

12.               
 

13.               
 

14.               
 

d

b

a

c

b

b

c

c

d

c

c

b

d

a

15.               
 

16.               
 

17.               
 

18.               
 

19.               
 

20.               
 

21.               
 

22.               
 

23.               
 

24.               
 

25.               
 

26.               
 

27.               
 

28.               
 

b

b

a

b

a

c

b

c

c

d

b

c

a

d

Ответы к тестовым
заданиям.
IV вариант.

1.                  
 

2.                  
 

3.                  
 

4.                  
 

5.                  
 

6.                  
 

7.                  
 

8.                  
 

9.                  
 

10.               
 

11.               
 

12.               
 

13.               
 

14.               
 

a

c

a

b

c

d

b

b

b

d

d

a

b

c

15.               
 

16.               
 

17.               
 

18.               
 

19.               
 

20.               
 

21.               
 

22.               
 

23.               
 

24.               
 

25.               
 

26.               
 

27.               
 

28.               
 

a

d

b

a

c

d

a

a

b

a

b

c

a

c

Критерии
оценивания теста:

5
(отлично) –
правильно выполнены 27-28
заданий.

4
(хорошо) –
правильно выполнены 21-26
задания.

3
(удовлетворительно) –
правильно
выполнены 15-20 заданий.

2
(неудовлетворительно) –
правильно
выполнены менее 15 заданий.

ПРАКТИЧЕСКАЯ РАБОТА 

«ИЗМЕРЕНИЕ
КОЛИЧЕСТВА ИНФОРМАЦИИ
».

1
ВАРИАНТ

Задание №1. Заполните
ячейки числами:

1

5 Кбайт   =

байт      =

бит

2

12 Кбайт =

байт      =

бит

3

107 Гбайт=

Мбайт  =

Кбайт

Задание № 2. Решите
следующие задачи

1

Сообщение занимает 3
страницы по 25 строк. В каждой строке записано по 60 символов. Сколько
символов в использованном алфавите, если всё сообщение занимает 1125 байтов?

Ответ:

символов

2

Для записи сообщения
использовалась кодировка Unicode. На одной странице 60 строк. В каждой строке
по 35 символов. Каков информационный объем одной страницы?

Ответ:

байта

3

Емкость одной дискеты
размером 3,5″ 1, 44 Мб. Лазерный диск может содержать 650 Мб информации.
Определите сколько дискет потребуется, чтобы разместить информацию с одного
разерного диска?

Ответ:

дискет(-а)

2
ВАРИАНТ

Задание №1. Заполните
ячейки числами:

1

Кбайт  =

байт    =

12288 бит

2

6 Кбайт =

байт

3

5242880 Кб=

Гбайт

Задание № 2. Решите
следующие задачи

1

Для передачи сообщения
использовалась кодировка Unicode (N=65536). В сообщении 10 страниц, на каждой
из которых 30 строк по 60 символов. Сколько килобайтов содержит сообщение?

Ответ:

Килобайт

(ответ округлите до двух
знаков после запятой)

2

Какова мощность алфавита,
если информационное сообщение объемом 2 Кб содержит 2048 символов?

Ответ:

символов

3

Измерьте информационный
объем сообщения (без учета кавычек) в битах, байтах и КБ, записанного
символами компьютерного алфавита: «Ура! Сегодня будет урок
информатики!»

Ответ:

бит

байт

Кбайт

(ответ округлите до двух
знаков после запятой)

3
ВАРИАНТ

Задание №1. Заполните
ячейки числами:

1

Кбайт  =

байт    =

8192 бит

2

Гбайт  =

1536 Мб =

Кбайт

3

94 Мбайта =

Кбайт

Задание № 2. Решите
следующие задачи

1

Для записи сообщения
использовалась кодировка Unicode. На одной странице 60 строк. В каждой строке
по 35 символов. Каков информационный объем одной страницы?

Ответ:

байта

2

Измерьте информационный
объем сообщения (без учета кавычек) в битах, байтах и КБ, записанного
символами компьютерного алфавита: «Ура! Сегодня будет урок
информатики!»

Ответ:

бит

байт

Кбайт

(ответ округлите до двух
знаков после запятой)

3

Емкость одной дискеты
размером 3,5″ 1, 44 Мб. Лазерный диск может содержать 650 Мб информации.
Определите сколько дискет потребуется, чтобы разместить информацию с одного
разерного диска?

Ответ:

дискет(-а)

Критерии
оценки практической работы:

5 (отлично) – правильно решены все 6 задач.

4 (хорошо) – не правильно решены 1 задача из 1 задания или 1
задача из 2 задания.

3 (удовлетворительно) – неправильно решены 2 задачи.

2 (неудовлетворительно) – неправильно решено более 3 задач.

ОТВЕТЫ:

Задание №1. Заполните
ячейки числами:

5 Кбайт   =

5120

байт      =

40960

бит

1,5

Кбайт  =

1536

байт    =

12288 бит

1

Кбайт  =

1024

байт    =

8192 бит

1,5

Гбайт  =

1536 Мб =

1572864

Кбайт

12 Кбайт =

12288

байт      =

98304

бит

6 Кбайт =

6144

байт

94 Мбайта =

96256

Кбайт

107 Гбайт=

109568

Мбайт  =

112197632

Кбайт

5242880 Кб=

5

Гбайт

Задание № 2. Решите
следующие задачи

Для передачи сообщения
использовалась кодировка Unicode (N=65536). В сообщении 10 страниц, на каждой
из которых 30 строк по 60 символов. Сколько килобайтов содержит сообщение?

Ответ:

35,16

Килобайт

(Ответ округлите до двух
знаков после запятой)

Сообщение занимает 3
страницы по 25 строк. В каждой строке записано по 60 символов. Сколько
символов в использованном алфавите, если всё сообщение занимает 1125 байтов?

Ответ:

4

символов

Для записи сообщения
использовалась кодировка Unicode. На одной странице 60 строк. В каждой строке
по 35 символов. Каков информационный объем одной страницы?

Ответ:

4200

байта

Какова мощность алфавита,
если информационное сообщение объемом 2 Кб содержит 2048 символов?

Ответ:

256

символов

Измерьте информационный
объем сообщения (без учета кавычек) в битах, байтах и КБ, записанного
символами компьютерного алфавита: «Ура! Сегодня будет урок
информатики!»

Ответ:

288

бит

36

байт

0,04

Кбайт

(округлите до двух
знаков после запятой)

Емкость одной дискеты
размером 3,5″ 1, 44 Мб. Лазерный диск может содержать 650 Мб информации.
Определите сколько дискет потребуется, чтобы разместить информацию с одного
разерного диска?

Ответ:

451

дискет(-а)

ПРАКТИЧЕСКАЯ РАБОТА

«СПОСОБЫ ХРАНЕНИЯ ОБРАБОТКИ И ПЕРЕДАЧИ ИНФОРМАЦИИ»

Цель:
научиться сохранять, обрабатывать и передавать данные при помощи технических
средств информации.

Время
выполнения: 2 часа

Оборудование:
ПК, сканер, фотоаппарат, микрофон, диск.

Раздаточный
материал: инструкционно – технологическая карта для сканирования фотографии.

Программное
обеспечение: операционная система, программа для работы с видеоинформацией.

Теоретические
основы

1. Технологии сбора и хранения информации

Сбор предполагает
получение максимально выверенной исходной информации и является одним из самых
ответственных этапов в работе с информацией, поскольку от цели сбора и методов
последующей обработки полностью зависит конечный результат работы всей
информационной системы.

Технология сбора
подразумевает использование определенных методов сбора информации и технических
средств, выбираемых в зависимости от вида информации и применяемых методов ее
сбора. На заключительном этапе сбора, когда информация преобразуется в данные,
т. е. в информацию, представленную в формализованном виде, пригодном для компьютерной
обработки, осуществляется ее ввод в систему Для
сбора данных необходимо сначала определить технические средства, позволяющие
осуществлять сбор быстро и высококачественно и поддерживающие операции ввода
информации и представления данных в электронной форме.

http://www.belovo.ru/education/spo/asu/umk/cod/it/img2.png

2. Технологический процесс обработки информации

Технологический процесс обработки
информации — есть строго определенная последовательность взаимосвязанных
процедур, выполняемых для преобразования первичной информации с момента ее
возникновения до получения требуемого результата.

Технологический процесс призван автоматизировать обработку
исходной информации за счет привлечения технических средств базовой
информационной технологии, сократить финансовые и трудовые затраты, обеспечить
высокую степень достоверности результатной информации. Для конкретной задачи
той или иной предметной области технологический процесс обработки информации
разрабатывается индивидуально. Совокупность процедур зависит от следующих
факторов:
   • характер и сложность решаемой задачи;
   • алгоритм преобразования информации;
   • используемые технические средства;
   • сроки обработки данных;
   • используемые системы контроля;
   • число пользователей и т. д.
   В общем случае технологический процесс обработки информации включает
процедуры.

Рис. 2.3. Процедуры обработки информации 

3. Способы обработки информации

Современные
информационные технологии позволяют обрабатывать информацию централизованным и
децентрализованным (т. е. распределенным) способами.

   Централизованный способ
предполагает сосредоточение данных в информационно-вычислительном центре,
выполняющем все основные действия технологического процесса обработки
информации. Основное достоинство централизованного способа — сравнительная
дешевизна обработки больших объемов информации за счет повышения загрузки
вычислительных средств.

   Децентрализованный способ
характеризуется рассредоточением информационно-вычислительных ресурсов и
распределением технологического процесса обработки информации по местам
возникновения и потребления информации. Достоинством децентрализованного
способа является повышение оперативности обработки информации и решения
поставленных задач за счет автоматизации деятельности на конкретных рабочих
местах, применения надежных средств передачи информации, организации сбора
первичных документов и ввода исходных данных в местах их возникновения.

 Децентрализованный
способ обработки информации может быть реализован автономным или сетевым
методом. При автономной обработке информации передача документов и данных на
электронных носителях осуществляется по почте либо курьером, а при сетевой —
через современные каналы связи.

На практике применяют
смешанный способ обработки информации, для которого характерны признаки двух
способов одновременно (централизованный с частичной децентрализацией или децентрализованный
с частичной централизацией).

4. Режимы обработки
информации на компьютере

Вычислительные средства
участвуют в процессе обработки информации в двух основных режимах: пакетном или
диалоговом.

   В случае,
когда технология обработки информации на компьютере представляет собой заранее
определенную последовательность операций, не требующую вмешательства человека,
и диалог с пользователем отсутствует, информация обрабатывается в так
называемом пакетном режиме. Суть его состоит в том, что программы обработки
данных последовательно выполняются под управлением операционной системы как
совокупность (пакет) заданий. Операционная система обеспечивает ввод данных,
вызов требуемых программ, включение необходимых внешних устройств, координацию
и управление технологическим процессом обработки информации.

   Задачи, решаемые в пакетном режиме,
характеризуются следующими свойствами:

   • алгоритм решения задачи
формализован, вмешательства пользователя не требуется;

   • наличие большого объема
входных и выходных данных, в основном хранящихся на устройствах хранения
информации (например, жестких дисках компьютеров);

   • расчет выполняется для
большинства записей входных файлов;

   • длительное время решения задачи —
как правило, обусловлено большими объемами обрабатываемых данных;

   • регламентность — задачи решаются
с заданной периодичностью.

   Пакетный
режим возник первым и широко использовался с середины XX в., когда обработка
информации на ЭВМ осуществлялась в специально создаваемых вычислительных центрах.
Заказчики подготавливали исходные данные (обычно на перфокартах или
перфолентах) и отправляли их в вычислительный центр, где данные обрабатывались
и результаты обработки возвращались заказчику. С развитием персональных ЭВМ
(начиная с 80-х гг. прошлого века) обработка данных стала осуществляться, в
основном, непосредственно потребителями, поэтому в настоящее время пакетный
режим используется достаточно редко. Сегодня более распространен диалоговый
режим, когда необходимо непосредственное взаимодействие пользователя с
компьютером и на каждое свое действие пользователь получает немедленные
ответные действия компьютера. Диалоговый режим позволяет пользователю
интерактивно управлять порядком обработки информации и получать результатные
данные в виде необходимых документов либо файлов.

   5.
Технологии передачи и представления информации

Информационные
процессы невозможны без средств передачи и представления информации, поскольку
зачастую информация требуется в месте, территориально удаленном от источника ее
возникновения, и должна быть представлена в виде символов, образов и сигналов,
пригодных для восприятия потребителем.
   Современные средства связи способны передавать информацию в любой
форме: телефонные, телевизионные, телеграфные сообщения, массивы данных,
печатные материалы, фотографии и т. д. В соответствии со спецификой
передаваемых сообщений организуется канал передачи информации — совокупность
технических средств, обеспечивающих передачу сигналов от источника к
потребителю.

Основная
характеристика канала передачи — скорость передачи информации, а ее предельно
допустимое значение называют емкостью канала, которая ограничивается шириной
полосы канала и шумом.

   
Канал связи соединяет передатчик и приемник с помощью линии связи, которая
может быть проводной, кабельной, радио, микроволновой, оптической или
спутниковой. Примерами линий связи являются телефонные и вычислительные сети,
сети телевизионного и радиовещания, мобильной связи, спутниковые технологии
передачи данных.

  
В современных цифровых системах связи функции передатчика и приемника выполняет
модем. Основное достоинство передачи информации в цифровой форме заключается в
возможности использования кодированных сигналов, обеспечения защиты информации
и наилучшего способа приема.

Для
представления переданной или хранимой информации потребителю используются
процессы воспроизведения и отображения.

Воспроизведение
информации — это процесс, при котором ранее записанная на носителе информация
считывается устройством воспроизведения.

Отображение
информации — есть представление информации, т. е. генерация сигналов на основе
исходных данных, а также правил и алгоритмов их преобразования в форме,
приемлемой для непосредственного восприятия человеком.

Потребителем
информации наиболее часто выступает человек, и для принятия решений ему
необходимы результаты обработки информации. Тем не менее человек не способен
ощутить машинное представление информации, а может воспринимать ее лишь
органами чувств (органами зрения, слуха, осязания, обоняния и т. д.), поэтому
для организации взаимодействия человека с информационными моделями объектов
информационная система должна быть наделена специальными средствами отображения
данных.

  
Поскольку зрение используется для восприятия информации наиболее активно, то
средства отображения в современных ИС должны представлять информацию в лучшей
форме для визуального наблюдения. Заметим, что мультимедиа-системы позволяют
также представлять информацию в форме аудио- и видеосигналов, однако для
управленческих информационных систем наиболее характерно отображение информации
в текстовой и графической форме, что осуществляется за счет использования
мониторов и печатающих устройств (например, принтеров, плоттеров).
   Прежде чем, например, на мониторе, появится информация в доступной
для человека форме, компьютером будет автоматически осуществлена следующая
последовательность операций:

   •
преобразование данных, представленных в машинной форме, в вид, приемлемый для
экранного отображения;
   • согласование формы представления данных с параметрами монитора;
   • воспроизведение в соответствии с возможностями воспроизводящего
устройства (т. е. в данном примере — монитора).

6.Инструкционно-технологическая карта для сканирования фотографий

Перед началом работы положите фотографию на стекло сканера, лицом
вниз. Для того чтобы отсканировать фотографию воспользуйтесь «Мастером работы
со сканером» или используйте программное обеспечение поставляемое
производителем вашего сканера. Мы рассмотрим пример сканирования фотографии
посредством «Мастера работы со сканером». 
Для запуска мастера войдите в меню Пуск → Настройки → Панель
управления → Сканеры и камеры → Выберите модель вашего сканера и
нажмите дважды. В появившемся окне (см. рис.1) выберите «Особые параметры» и
нажмите кнопку «Настроить»

http://www.troyka.travel/files/user/image/SITE/VERKHNEE%20MENYU/VIZA/INstrfoto/1.JPG                    http://www.troyka.travel/files/user/image/SITE/VERKHNEE%20MENYU/VIZA/INstrfoto/2.JPG

Рисунок
1                                                                                     
Рисунок 2
В появившемся окне (см. рис. 2) выберите «Разрешение (DPI)» — 300, «Тип
изображения» — Цветной снимок и нажмите кнопку ОК, вы попадете в предыдущее
меню в котором необходимо нажать кнопку «Просмотр» (см. рис. 1) У вас на экране
появится предварительный просмотр изображения с вашего сканера (см.рис. 3)

http://www.troyka.travel/files/user/image/SITE/VERKHNEE%20MENYU/VIZA/INstrfoto/3.JPG     http://www.troyka.travel/files/user/image/SITE/VERKHNEE%20MENYU/VIZA/INstrfoto/4.JPG

Рисунок
3                                                                          
 Рисунок 4
Для того чтобы отсканировать фотографию правильно необходимо выбрать область
сканирования (выделена пунктирной линией) как показано на рис. 4, в противном
случае сканер кроме фотографии туриста отсканирует также и всю плоскость
стекла, в результате чего в визе туриста вместо фотографии будет напечатан
белый лист, такая визу будет считаться недействительной!

После того как вы выбрали область сканирования нажмите кнопку
«Далее», в появившемся окне укажите название файла, выберите формат файла JPG и
укажите папку для сохранения фотографии, после чего нажмите кнопку «Далее».

Порядок выполнения работы

1. Создание досье
группы. Заранее заготовить материал: фотографии, текст.

2. Сфотографировать
своих однокурсников.

3. Включить компьютер.

4. Создать общую папку
на сервере.

5. Сканировать
фотографии и сохранить в общую папку.

6. Включить текстовый
редактор. Создать титульный лист с общей фотографией и названием группы:
специальность и год.

7. Оформить каждый лист
на одного человека. Записать данные: дата рождения, номер школы, хобби.

8. Сохранить данные на
жесткий диск в свою папку под именем досье группы.

Отчет

Отчет должен быть
оформлен в текстовом редакторе и содержать:

¾     
наименование
работы;

¾     
цель
работы;

¾     
задание;

¾     
последовательность
выполнения работы;

¾     
ответы
на контрольные вопросы;

¾     
вывод
о проделанной работе.

Контрольные вопросы

   1. Что такое сбор
информации и каково его предназначение?
   2. Что понимается под технологией сбора информации?
   3. Чем отличаются понятия «информация» и «данные»?
   4. Назовите основные требования к сбору данных и к хранимым
данным.
   5. Перечислите основные средства сбора текстовой, графической,
звуковой и видеоинформации. Какие еще средства сбора информации вам известны?
   6. Какие еще методы сбора данных вам известны?
   7.   В чем заключается процедура хранения информации?
   8.   Перечислите основные требования к структурам хранения.
   9.   Что такое база данных?
   10. В чем различие между базой и банком данных?
   11.   Что такое резервное копирование и для чего оно
осуществляется?
   12.   Что такое архивное копирование и в чем его отличие от
резервного копирования?
   13. Что такое базовая информационная технология?
   14. В чем заключается различие между централизованным и
децентрализованным способами обработки информации?
   15.   Какие режимы обработки информации вам известны?

Критерии
оценивания практической работы:

5
 (отлично) –
работа
выполнена полностью и правильно, сделаны правильные выводы; работа выполнена по
плану с учетом техники безопасности.

4  (хорошо) – работа
выполнена правильно с учетом 2-3 несущественных ошибок исправленных
самостоятельно по требованию преподавателя.

3  (удовлетворительно) – работа выполнена правильно не менее чем на половину
или допущена существенная ошибка.

2
 (неудовлетворительно) –
допущены две (и более) существенные ошибки в ходе
работы, которые студент не может исправить даже по требованию преподавателя.

РАЗДЕЛ 2. ИНФОРМАЦИЯ И ЭНТРОПИЯ

УСТНЫЙ ОПРОС ПО ТЕМЕ

«ТЕОРЕМА ОТСЧЕТОВ»

Вопросы:

  1. Теорема
    отсчетов Котельникова и Найквиста — Шеннона
    .
  2. Математическая модель системы передачи информации.

Критерии
оценки устного ответа:

«5
(отлично)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, литературным языком: ответ самостоятельный. 

«4
(хорошо)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, при этом допущены две-три несущественные ошибки,
исправленные по требованию преподавателя. 

«3
(удовлетворительно)»
: ответ полный,
но при этом допущена существенная ошибка, или неполный, несвязный. 

«2
(неудовлетворительно)»
: при ответе
обнаружено непонимание студентом основного содержания учебного материала или
допущены существенные ошибки, которые студент не смог исправить при наводящих
вопросах преподавателя.

УСТНЫЙ ОПРОС ПО ТЕМЕ

«ПОНЯТИЕ ЭНТРОПИИ. ВИДЫ ЭНТРОПИИ»

Вопросы:

  1. Понятие
    энтропии.
  2. Формула
    Хартли.
  3. Виды
    условной энтропии.
  4. Энтропия
    объединения двух источников.

Критерии
оценки устного ответа:

«5
(отлично)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, литературным языком: ответ самостоятельный. 

«4
(хорошо)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, при этом допущены две-три несущественные ошибки,
исправленные по требованию преподавателя. 

«3
(удовлетворительно)»
: ответ полный,
но при этом допущена существенная ошибка, или неполный, несвязный. 

«2
(неудовлетворительно)»
: при ответе
обнаружено непонимание студентом основного содержания учебного материала или
допущены существенные ошибки, которые студент не смог исправить при наводящих
вопросах преподавателя.

УСТНЫЙ ОПРОС ПО ТЕМЕ

«СМЫСЛ ЭНТРОПИИ ШЕННОНА»

Вопросы:

1.     
Статистический подход к измерению
информации.

2.     
Закон аддитивности информации.

3.     
Формула Шеннона

Критерии
оценки устного ответа:

«5
(отлично)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, литературным языком: ответ самостоятельный. 

«4
(хорошо)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, при этом допущены две-три несущественные ошибки,
исправленные по требованию преподавателя. 

«3
(удовлетворительно)»
: ответ полный,
но при этом допущена существенная ошибка, или неполный, несвязный. 

«2
(неудовлетворительно)»
: при ответе
обнаружено непонимание студентом основного содержания учебного материала или
допущены существенные ошибки, которые студент не смог исправить при наводящих
вопросах преподавателя.

ПРАКТИЧЕСКАЯ РАБОТА

«ПРИМЕНЕНИЕ ТЕОРЕМЫ ОТЧЕТОВ»

Цель:  Изучение возможности синтезирования сигналов по дискретным
отсчетам в соответствии с теоремой Котельникова.

Время
выполнения: 2 часа

Оборудование:
ПК.

Программное
обеспечение: операционная система, калькулятор,  текстовый редактор.

Практическое задание

 1. Изобразить сигналы:

    а)
синусоидальный сигнал частотой 5кГц;

    б)
видеоимпульсы прямоугольной формы длительностью 0,25; 0,5; 1,0 мс;

    в)
видеоимпульсы пилообразной формы длительностью 0,5 мс; 1,0 мс.

 2. Рассчитать и построить
идеальные выборочные сигналы для сигналов, при fвыб=5, 10, 20, 40
кГц.

Отчет

Отчет должен быть оформлен
в текстовом редакторе и содержать:

¾     
наименование
работы;

¾     
цель
работы;

¾     
задание;

¾     
последовательность
выполнения работы;

¾     
ответы
на контрольные вопросы;

¾     
вывод
о проделанной работе.

Контрольные вопросы

1. Сформулируйте теорему
Котельникова для сигналов с ограниченным спектром.

2. Объясните погрешности
синтезирования реальных сигналов по дискретным отсчетам.

Критерии
оценивания практической работы:

5
 (отлично) –
работа
выполнена полностью и правильно, сделаны правильные выводы; работа выполнена по
плану с учетом техники безопасности.

4  (хорошо) – работа
выполнена правильно с учетом 2-3 несущественных ошибок исправленных
самостоятельно по требованию преподавателя.

3  (удовлетворительно) – работа выполнена правильно не менее чем на половину
или допущена существенная ошибка.

2
 (неудовлетворительно) –
допущены две (и более) существенные ошибки в ходе
работы, которые студент не может исправить даже по требованию преподавателя.

ПРАКТИЧЕСКАЯ РАБОТА

«ВЫПОЛНЕНИЕ РАСЧЕТОВ ПО
ТЕОРЕМЕ ОТЧЕТОВ. ОПРЕДЕЛЕНИЕ ПРОПУСКНОЙ СПОСОБНОСТИ ДИСКРЕТНОГО КАНАЛА»

Цель:  научиться выполнять расчеты по теореме отчетов и определять
пропускную способность дискретного канала.

Оборудование:
ПК.

Программное
обеспечение: операционная система, калькулятор,  текстовый редактор.

Теоретические
основы

Пусть
на вход аналогово-цифрового преобразователя поступает гармонический сигнал с
частотой f(период T = 1/f).частоты
исходного сигнала

Проведем
дискретизацию входного аналогового сигнала с периодом дискретизации Tд меньшим половины периода входного
сигнала T (рисунок 1).

Рисунок 1 - дискретизация гармонического сигнала с частотой меньшей удвоенной частоты сигнала

Рисунок
1

Очевидно,
что дискретные отсчеты сигнала однозначно не отображают форму исходного
сигнала, в частности по получившимся точкам можно построить гармонический
сигнал с периодом Tискаж.,
отличающимся от периода исходного сигнала T.
Период Tискаж больше периода исходного сигнала T, соответственно частота
меньше, частоты исходного сигнала f (рисунок 2).

Рисунок 2 - дискретизация гармонического сигнала с частотой меньшей удвоенной частоты сигнала и возникающие искажения

Рисунок
2

Данный
эффект называется стробоскопическим эффектом или алиасингом. Он заключается в
появлении ложной низкочастотной составляющей при дискретизации сигнала с
частотой меньшей удвоенной частоты исходного сигнала (или с периодом большим
половины периода исходного сигнала), отсутствующей в исходном сигнале.

Пример 2

Уменьшим
период дискретизации до половины периода исходного аналогового сигнала (частоту
дискретизации увеличим до удвоенной частоты исходного сигнала). В данной
ситуации возникает неопределенность начальной фазы и амплитуды сигнала, при
этом частота исходного сигнала не искажается. В крайнем случае мы можем
получить отсчеты сигнала равные нулю (рисунок 3).

Рисунок 2 - дискретизация гармонического сигнала с частотой равной удвоенной частоте сигнала и возникающие искажения

Рисунок
3

Пример 3

Продолжим
уменьшение периода дискретизации. Если период дискретизации меньше половины
периода исходного сигнала, то очевидно, что через получившиеся после оцифровки
точки можно построить только один гармонический сигнал, соотвествующий
исходному, без искажения начальной фазы, амплитуды и частоты (рисунок 4).
Данное утверждение теоретически обосновано и мы его примем без доказательства.

Рисунок 2 - дискретизация гармонического сигнала с частотой большей удвоенной частоты сигнала

Рисунок
4

Таким
образом, для адекватного восстановления гармонического сигнала по дискретным
отсчетам, частота дискретизации должна быть не меньше половины частоты сигнала.
Частота равная половине частоты дискретизации называется частотой Найквиста fN = fД/2.

Данное
утверждение можно обобщить следующим образом:

Аналоговый
сигнал с ограниченным спектром может быть восстановлен однозначно и без
искажений по своим дискретным отсчетам, взятым с частотой большей удвоенной
максимальной частоты в своем спектре.

fд > 2·Fmax      (1)

Данное
утверждение известно как теорема
Котельникова
 (в западной
литературе теорема
Найквиста-Шеннона
) или теорема отсчетов. В различных источниках в
формулировке данной теоремы могут быть различия, основным из которых является
знак сравнения в формуле 1: 
 2·Fmax или fд > 2·Fmax. Мы
придерживаемся формулировки со знаком строго
больше,
 так как при
частоте оцифровки равной максимальной частоте в спектре возникают
неоднозначности начальной фазы и амплитуды.

На
практике аналоговый сигнал, как правило, оцифровывают с частотой в несколько
раз превышающей удвоенную частоту в спектре сигнала, хотя существуют методики
оцифровки сигнала с нарушением теоремы отсчетов.

Пропускная
способность непрерывного канала

Пусть сигнал http://www.sernam.ru/htm/book_tec/tec_64.files/image001.gif на
выходе канала представляет собой сумму полезного сигнала http://www.sernam.ru/htm/book_tec/tec_64.files/image002.gif и шума http://www.sernam.ru/htm/book_tec/tec_64.files/image003.gif, т.е. http://www.sernam.ru/htm/book_tec/tec_64.files/image004.gif, причем http://www.sernam.ru/htm/book_tec/tec_64.files/image002.gif и http://www.sernam.ru/htm/book_tec/tec_64.files/image003.gif статистически
независимы. Допустим, что канал имеет ограниченную полосу пропускания шириной http://www.sernam.ru/htm/book_tec/tec_64.files/image005.gif. Тогда в
соответствии с теоремой Котельникова (см. п. 1.5) функции http://www.sernam.ru/htm/book_tec/tec_64.files/image001.gif, http://www.sernam.ru/htm/book_tec/tec_64.files/image002.gif и http://www.sernam.ru/htm/book_tec/tec_64.files/image003.gif можно
представить совокупностями отсчетов http://www.sernam.ru/htm/book_tec/tec_64.files/image006.gif, http://www.sernam.ru/htm/book_tec/tec_64.files/image007.gif, и http://www.sernam.ru/htm/book_tec/tec_64.files/image008.gif, http://www.sernam.ru/htm/book_tec/tec_64.files/image009.gif, где http://www.sernam.ru/htm/book_tec/tec_64.files/image010.gif. При этом
статистические свойства сигнала http://www.sernam.ru/htm/book_tec/tec_64.files/image002.gif можно
описать многомерной ПРВ http://www.sernam.ru/htm/book_tec/tec_64.files/image011.gif, а свойства
шума – ПРВ http://www.sernam.ru/htm/book_tec/tec_64.files/image012.gif.

Пропускная способность непрерывного канала определяется следующим
образом:

http://www.sernam.ru/htm/book_tec/tec_64.files/image013.gif,

где    http://www.sernam.ru/htm/book_tec/tec_64.files/image014.gif – количество информации о какой-либо
реализации сигнала 
http://www.sernam.ru/htm/book_tec/tec_64.files/image002.gif длительности T, которое в среднем
содержит реализация сигнала 
http://www.sernam.ru/htm/book_tec/tec_64.files/image001.gif той же длительности http://www.sernam.ru/htm/book_tec/tec_64.files/image015.gif, а максимум ищется по всем возможным
распределениям
http://www.sernam.ru/htm/book_tec/tec_64.files/image016.gif.

Когда сигнал на входе канала имеет нормальное распределение и
отсчеты независимы величина 
http://www.sernam.ru/htm/book_tec/tec_64.files/image017.gif максимизируется [6]. Поэтому
пропускная способность гауссовского канала с дискретным временем, рассчитанная
на единицу времени, с учетом (4.16) может быть записана в виде

http://www.sernam.ru/htm/book_tec/tec_64.files/image018.gif.

(4.17)

Полученное выражение показывает, что пропускная способность
гауссовского канала с дискретным временем определяется числом импульсов,
передаваемых в секунду, и отношением сигнал/шум (
http://www.sernam.ru/htm/book_tec/tec_64.files/image019.gif).

С учетом взаимосвязи скорости передачи информации и полосы частот
непрерывного канала от (4.17) можно перейти к формуле Шеннона, которая
устанавливает связь пропускной способности гауссовского канала с полосой
пропускания непрерывного канала и отношением мощности сигнала к мощности
помехи:

http://www.sernam.ru/htm/book_tec/tec_64.files/image020.gif.

(4.18)

График отношения http://www.sernam.ru/htm/book_tec/tec_64.files/image021.gif изображен на рис. 4.6. Заметим,
что при малом отношении 
http://www.sernam.ru/htm/book_tec/tec_64.files/image022.gif

http://www.sernam.ru/htm/book_tec/tec_64.files/image023.gif,

а пропускная способность канала связи прямо пропорциональна этому
отношению.

http://www.sernam.ru/htm/book_tec/tec_64.files/image026.gif

При большом отношении http://www.sernam.ru/htm/book_tec/tec_64.files/image024.gif в (4.18) можно пренебречь единицей и
считать, что

http://www.sernam.ru/htm/book_tec/tec_64.files/image025.gif,

т.е. зависимость пропускной способности непрерывного канала от
отношения сигнал/шум логарифмическая.

Пропускная способность канала, как предельное значение скорости
безошибочной передачи информации, является одной из основных характеристик
любого канала.

Определим пропускную способность стандартного канала тональной
частоты, имеющего границы эффективно передаваемых частот 
http://www.sernam.ru/htm/book_tec/tec_64.files/image027.gif кГц, среднюю мощность сигнала на
выходе 56 мкВт при средней мощности помехи 69000 пВт.

Согласно (4.18), при заданных параметрах

http://www.sernam.ru/htm/book_tec/tec_64.files/image028.gif [бит/с].

Для непрерывных каналов справедлива теорема Шеннона, согласно
которой сообщения дискретного источника могут быть закодированы и переданы по
непрерывному каналу так, что вероятность ошибочного декодирования принятого
сигнала 
http://www.sernam.ru/htm/book_tec/tec_64.files/image001.gif будет меньше наперед заданной
положительной величины 
http://www.sernam.ru/htm/book_tec/tec_64.files/image029.gif, если производительность источника http://www.sernam.ru/htm/book_tec/tec_64.files/image030.gif меньше пропускной способности http://www.sernam.ru/htm/book_tec/tec_64.files/image031.gif непрерывного канала.

Для типовых непрерывных каналов многоканальной связи основные
технические характеристики и пропускная способность, вычисленная по формуле
Шеннона (4.18), при отношении сигнал/шум 20 дБ, приведены в табл. 4.4.

Зная пропускную способность канала и информационные характеристики
сообщений (табл. 4.5), можно определить, какие сообщения (первичные сигналы)
можно передавать по заданному каналу.

Таблица 4.4. Характеристики типовых
каналов многоканальной связи

Наименование

канала

Границы

передаваемых частот, Гц

Пропускная

способность, бит/с

Тональной частоты

300…3400

20,64∙103

Предгрупповой
широкополосный

12,3∙103…23,4∙103

73,91∙103

Первичный широкополосный

60,6∙103…107,7∙103

313,6∙103

Вторичный широкополосный

312,3∙103…551,4∙103

1,59∙106

Третичный широкополосный

812,3∙103…2043,7∙103

8,2∙106

Таблица 4.5. Производительность источников
сообщений

Вид сообщения

Характер

сообщения

Параметры АЦП

Производительность,

бит/с

http://www.sernam.ru/htm/book_tec/tec_64.files/image032.gif, Гц

http://www.sernam.ru/htm/book_tec/tec_64.files/image033.gif

Телеграфные, 50 Бод

дискретные

30…50

Телефонные

непрерывные

8∙103

8

64∙103

Звукового вещания:

первого класса

непрерывные

24∙103

240∙103

высшего класса

непрерывные

32∙103

13

416∙103

Факсимильные, 120 строк/с:

полутоновые

непрерывные

2,93∙103

4

11,72∙103

штриховые

дискретные

2,93∙103

Передача данных, 2400 Бод

дискретные

2,4∙103

Телевизионные

непрерывные

13∙106

16

208∙106

Например, первичный сигнал телевизионного вещания имеет http://www.sernam.ru/htm/book_tec/tec_64.files/image034.gif (табл. 4.5) и поэтому не может быть
передан ни по одному из типовых непрерывных или цифровых каналов без потери
качества. Следовательно, для передачи сигнала телевизионного вещания требуется
создание специальных каналов с более высокой пропускной способностью или
снижение скорости цифрового потока.

Задачи

1. Число символов
алфавита m = 4. Вероятности появления символов равны
соответственно p1 = 0,15; p2 = 0,4; p3 =
0,25; p4 = 0,2. Длительности символов t1 =
3с; t2 = 2с; t3 = 5с, t4 = 6с. Чему равна
скорость передачи сообщений, составленных из таких символов?

2. Сообщения составлены из
пяти качественных признаков (m = 5). Длительность элементарной
посылки t = 20мс. Определить, чему равна скорость передачи сигналов и
информации.

3. Определить пропускную
способность бинарного канала связи, способного передавать 100 символов 0 или 1
в единицу времени, причем каждый из символов искажается (заменяется противоположным)
с вероятностью р = 0,01.

4. Имеются источник
информации с энтропией в единицу времени H(Х) = 100 дв.ед. и два канала
связи; каждый из них может передавать в единицу времени 70 двоичных знаков (0
или 1); каждый двоичный знак заменяется противоположным с вероятностью р = 0,1.
Требуется выяснить, достаточна ли пропускная способность этих каналов для
передачи информации, поставляемой источником.

5. Чему равна пропускная
способность симметричного канала, если источник вырабатывает сигналы со
скоростью 2 знака в секунду, закодированные кодом с основанием m =
10, а вероятность ложного приема р = 0,3?

6. Сообщения составлены из
алфавита Х = (х1, x2, x3). Вероятности появления символов
алфавита 0,7; 0,2; 0,1 соответственно. Помехи в канале связи заданы следующей
канальной матрицей: 

http://informkod.narod.ru/3_ques.files/3_ques25.gif

Определить скорость передачи
информации, если время передачи одного символа t1 = 0,02с.

7. Чему раина пропускная
способность канала связи, описанного канальной матрицей: 

http://informkod.narod.ru/3_ques.files/3_ques26.gif

если известно, что на выходе
источника сообщений символы вырабатываются со скоростью 100 знаков в секунду?

8. Определить максимально
возможную скорость передачи информации по радиотехническому каналу связи пункта
управления с телеуправляемой ракетой, если полоса пропускания канала связи
равна 3 МГц, а минимальное отношение сигнал-шум по мощности в процессе
наведения ракеты на цель равно 3.

9. Определить полосу
пропускания канала передачи телевизионного черно-белого изображения с
5х105 элементами, 25 кадрами в секунду и 8 равновероятными градациями
яркости для отношения P/N = 15 при условии, что изображение может
принимать наиболее хаотичный вид «белого шума».

Отчет

Отчет должен быть
оформлен в текстовом редакторе и содержать:

¾     
наименование
работы;

¾     
цель
работы;

¾     
задание;

¾     
последовательность
выполнения работы;

¾     
ответы
на контрольные вопросы;

¾     
вывод
о проделанной работе.

Контрольные вопросы

1. Что такое пропускная
способность канала передачи информации? Чем отличается пропускная способность
от скорости передачи информации по каналу связи?

2. Чем отличается
информационная скорость передачи от технической, и в каких единицах эти
скорости измеряются?

3. Как изменяется пропускная
способность дискретного канала связи при воздействии на канал помех.

4. Сформулируйте основную
теорему Шеннона о кодировании для канала без помех.

5. Сформулируйте и поясните
теорему Шеннона о кодировании для канала с помехами.

6. Приведите выражение
пропускной способности для дискретного канала без помех и с помехами.

7. Сформулируйте и поясните
теорему отсчетов (Котельникова)

8. Какие параметры влияют на
объем сигнала.

9. От чего зависит пропускная
способность непрерывного канала связи.

10. Назовите условия
согласования источников информации с пропускной способностью непрерывных
каналов связи.

11. Какова скорость
отображения информации приемным устройством отображения информации.

Критерии
оценивания практической работы:

5
 (отлично) –
работа
выполнена полностью и правильно, сделаны правильные выводы; работа выполнена по
плану с учетом техники безопасности.

4  (хорошо) – работа
выполнена правильно с учетом 2-3 несущественных ошибок исправленных
самостоятельно по требованию преподавателя.

3  (удовлетворительно) – работа выполнена правильно не менее чем на половину
или допущена существенная ошибка.

2
 (неудовлетворительно) –
допущены две (и более) существенные ошибки в ходе
работы, которые студент не может исправить даже по требованию преподавателя.

ПРАКТИЧЕСКАЯ РАБОТА

«ПОИСК ЭНТРОПИИ СЛУЧАЙНЫХ ВЕЛИЧИН»

Цель:
научиться вычислять энтропию случайной величины.

Оборудование:
ПК.

Программное
обеспечение: операционная система, калькулятор,  текстовый редактор.

Теоретические
основы

Энтропия в теории информации — мера хаотичности информации, неопределённость появления какого-либо символа первичного
алфавита. При отсутствии информационных потерь численно равна количеству
информации на символ передаваемого сообщения.

Так,
возьмём, например, последовательность символов, составляющих какое-либо
предложение на русском языке. Каждый символ появляется с разной частотой,
следовательно, неопределённость появления для некоторых символов больше, чем
для других. Если же учесть, что некоторые сочетания символов встречаются очень
редко, то неопределённость ещё более уменьшается (в этом случае говорят об
энтропии n-ого порядка). Концепции информации и энтропии имеют глубокие связи
друг с другом, но, несмотря на это, разработка теорий в статистической механике
и теории информации заняла много лет, чтобы сделать их соответствующими друг
другу.

Энтропия независимых случайных событий x с n возможными
состояниями (от 1 до n) рассчитывается по формуле:

H(x)=-sum_{i=1}^np(i)log_2 p(i)

Эта величина также называется средней
энтропией сообщения
. Величина 
log_2 {1 over p(i)} называется частной энтропией,
характеризующей только i-e состояние.

Таким образом, энтропия
события x является суммой с противоположным знаком всех
произведений относительных частот появления события i, умноженных
на их же двоичные логарифмы (основание 2 выбрано только для удобства работы с
информацией, представленной в двоичной форме). Это определение для дискретных
случайных событий можно расширить для функции распределения 
вероятностей.

Шеннон вывел это определение энтропии из следующих
предположений:

§   мера должна быть непрерывной; т. е.
изменение значения величины вероятности на малую величину должно вызывать малое
результирующее изменение энтропии;

§   в случае, когда все варианты (буквы в
приведенном примере) равновероятны, увеличение количества вариантов (букв) должно
всегда увеличивать полную энтропию;

§   должна быть возможность сделать выбор (в
нашем примере букв) в два шага, в которых энтропия конечного результата должна
будет является суммой энтропий промежуточных результатов.

Шеннон показал, что любое
определение энтропии, удовлетворяющее этим предположениям, должно быть в форме:

-Ksum_{i=1}^np(i)log_2 p(i)

где K —
константа (и в действительности нужна только для выбора единиц измерения).

Шеннон определил, что
измерение энтропии (H = − p1 log2 p1 −
… − pn log2 pn),
применяемое к источнику информации, может определить требования к минимальной
пропускной способности канала, требуемой для надежной передачи информации в
виде закодированных двоичных чисел. Для вывода формулы Шеннона необходимо
вычислить математическое ожидания «количества информации», содержащегося в
цифре из источника информации. Мера энтропии Шеннона выражает неуверенность
реализации случайной переменной. Таким образом, энтропия является разницей
между информацией, содержащейся в сообщении, и той частью информации, которая
точно известна (или хорошо предсказуема) в сообщении. Примером этого является
избыточность языка — имеются явные статистические закономерности в появлении
букв, пар последовательных букв, троек и т.д.

В общем случае b-арная
энтропия (где b равно 2,3,… ) источника 
mathcal{S} = (S,P) с исходным
алфавитом
 S = {a1,
…, an} и
дискретным распределением вероятности P = {p1, …, pn}
где pi является вероятностью ai (pi = p(ai))
определяется формулой:

H_b(mathcal{S}) = - sum_{i=1}^n p_i log_b p_i

Определение энтропии Шеннона
очень связано с понятием 
термодинамической энтропииБольцман и Гиббс проделали большую работу по статистической
термодинамике, которая способствовала принятию слова «энтропия» в
информационную теорию. Существует связь между понятиями энтропии в
термодинамике и теории информации. Например, 
демон
Максвелла
также противопоставляет
термодинамическую энтропию информации, и получение какого-либо количества
информации равно потерянной энтропии.

СВОЙСТВА
ЭНТРОПИИ

1.Энтропия является вещественной и
неотрицательной величиной.

2.Энтропия – величина ограниченная.

3.Энтропия
обращается в нуль лишь в том случае, если вероятность одного из состояний равна
единице; тогда вероятности всех остальных состояний, естественно, равны нулю.
Это  положение  соответствует случаю, когда состояние источника полностью
определено.

4.Энтропия
максимальна, когда все состояния источника равновероятны.

5. Энтропия
источника и с двумя состояниями u1 и u2 изменяется от нуля до единицы, достигая
максимума при равенстве их вероятностей:

р(и1) = р= р(u2) = 1 — р = 0,5.

6.Энтропия
объединения нескольких статистически независимых   источников   информации  
равна   сумме энтропии исходных источников.

7. Энтропия
характеризует среднюю неопределенность выбора одного состояния из ансамбля. При
ее определении используют только вероятности состояний, полностью игнорируя их
содержательную сторону. Поэтому энтропия не может служить средством решения
любых задач, связанных с неопределенностью.

8. Энтропия
как мера неопределенности согласуется с экспериментальными данными, полученными
при изуче­нии психологических реакций человека, в частности реакции выбора.
Установлено, что время безошибочной реакции на последовательность беспорядочно
чередующихся равновероятных раздражителей (например, загорающихся лампочек)
растет с увеличением их числа так же, как энтропия. Это время характеризует
неопределенность выбора одного раздражителя. Замена равновероятных
раздражителей неравновероятными приводит к снижению среднего времени реакции
ровно настолько, насколько уменьшается энтропия.

       Дифференциальной энтропией случайной
величины
X называется величина:

HД(x)=H(x)-H(y)= —

Если произвести квантование случайных величин Х1,
Х2…Х
n по уровню с числом уровней квантования равным m ,
то возможное число реализаций длительностью Т
n станет
конечным и равным М = т
n.

Каждая из реализаций
С1, С2,….С
i,…Сm          будет иметь определенную вероятность
появления в эксперименте по наблюдению реализаций. Тогда неопределенность
(энтропия) и количество информации в реализации (в среднем по всем реализациям)
определяются равенством

                                           

 

Энтропия и количество информации на одну степень
свободы (на одну выборку) равны

 

       Избыточность показывает,
какая доля максимально возможной при заданном объеме алфавита неопределенности
не используется источником.

=(HmaxHu)/Hmax ,

Где Нu – энтропия
рассматриваемого источника, Н
max – максимально возможное
значение его энтропии, которое может быть достигнуто подбором распределения и
ликвидацией взаимозависимости элементов алфавита. Так, для дискретного
источника с М элементами

Hmax=log M

Выполнение расчетных задач

Задача №1

Показать, что для регулярной марковской цепи энтропия H(x)(r) за r
шагов равняется энтропии за один шаг, умноженной на число шагов
r.

Решение:

Регулярная
цепь Маркова полностью характеризуется матрицей переходных вероятностей  и предельным стационарным
распределением вероятностей состояний .

В
стационарном режиме энтропия за один шаг не зависит от номера шага и равна ,

 — стационарная вероятность k-го
состояния,

 — энтропия в k
состоянии.

Энтропия
за
r шагов равна сумме энтропий за каждый шаг. Так как
энтропия за каждый шаг одинакова, то сумма энтропий равна .

Задача №2

В результате полной дезорганизации управления m
самолетов летят произвольными курсами. Управление восстановлено, и все самолеты
взяли общий курс со среднеквадратической ошибкой отклонения от курса
σ=30.
Найти изменение энтропии, считая, что в первом случае имело место равномерное
распределение вероятностей углов, а во втором случае – нормальное.

Решение.

Начальное
распределение вероятностей углов курсов самолетов равномерное в интервале от  до  с плотностью вероятности .

Дифференциальная
энтропия этого распределения

 бит.

Конечное
распределение вероятностей углов курсов самолетов нормальное с параметрами  и плотностью вероятности .

Дифференциальная
энтропия этого распределения

Изменение
энтропии  бит.

Энтропия
уменьшилась на 4,86 бит.

Задача №3

Измерительное
устройство вырабатывает вре­менные интервалы, распределенные случайным образом
в пределах от 100 до 500 мс. Как изменится энтропия случайной величины при
изменении точности измерения с 1 мс до 1 мкс?

Решение.

При точности 1мс дискретная
случайная величина Х – результат измерения –  может равновероятно принимать
одно из
 значений. Энтропия равна .

При точности 1мкс дискретная
случайная величина Х – результат измерения –  может равновероятно принимать
одно из
 значений. Энтропия равна .

Изменение энтропии

 бит.

Энтропия увеличилась примерно на 10 бит.

Задачи по вычислению энтропии

1.
Найдите энтропию для числа белых шаров при извлечении двух шаров из урны,
содержащей два белых и один черный шар.

2.
Найдите энтропию для числа козырных карт при извлечении двух карт из колоды в
36 карт.

3.
Какую степень неопределенности содержит опыт угадывания суммы очков на
извлеченной кости из полного набора домино?

4.
Найдите энтропию для числа тузов при извлечении трех карт из карт с картинками.

5.
Найдите дифференциальную энтропию для равномерного распределения.

6.
Найдите дифференциальную энтропию для показательного закона распределения, если
известно, что случайная величина х принимает значение меньше
единицы с вероятностью 0,5.

Отчет

Отчет должен быть
оформлен в текстовом редакторе и содержать:

¾     
наименование
работы;

¾     
цель
работы;

¾     
задание;

¾     
последовательность
выполнения работы;

¾     
ответы
на контрольные вопросы;

¾     
вывод
о проделанной работе.

Контрольные вопросы

1.
Как определяется энтропия дискретных случайных величин?

2.
Приведите примеры энтропий для классических законов распределения.

Критерии
оценивания практической работы:

5
 (отлично) –
работа
выполнена полностью и правильно, сделаны правильные выводы; работа выполнена по
плану с учетом техники безопасности.

4  (хорошо) – работа
выполнена правильно с учетом 2-3 несущественных ошибок исправленных
самостоятельно по требованию преподавателя.

3  (удовлетворительно) – работа выполнена правильно не менее чем на половину
или допущена существенная ошибка.

2
 (неудовлетворительно) –
допущены две (и более) существенные ошибки в ходе
работы, которые студент не может исправить даже по требованию преподавателя.

ПРАКТИЧЕСКАЯ РАБОТА

«РАСЧЕТ ВЕРОЯТНОСТЕЙ. СОСТАВЛЕНИЕ ЗАКОНА РАСПРЕДЕЛЕНИЯ
ВЕРОЯТНОСТЕЙ»

Цель:  Приобрести практические навыки по расчету вероятностей.

Оборудование:
ПК.

Программное
обеспечение: операционная система, калькулятор,  текстовый редактор.

Задачи

Задача
№ 1.
Монета подбрасывается три раза
подряд
. Под исходом опыта

будем
понимать последовательность
(X1, X2,
X3),
где каждый из Xi обозначает

выпадение
«герба» (Г) или цифры (Ц).

Необходимо:

а) Построить
пространство
W элементарных событий;

б) Описать
событие
А, состоящее в
том
, что
выпало не менее двух

«гербов».

Задача
№ 2.
Событие B является
частным случаем события
A. Чему равны

их
сумма и произведение
?

Задача
№ 3.
Пусть А, В, С случайные события.
Выяснить смысл

равенств:

а) A
B C = A ;

б) A
B C = A .

Задача
№ 4.
Пусть A, B,
C
три произвольных события. Найти
выражения

для
событий
, состоящих в том, что из A, B, C:

а) Произошло только
А;

б) Произошли А и В, но С не произошло;

в) Все три
события произошли
;

г) Произошло по
крайней мере одно из этих событий
;

д) Произошли по
крайней мере два события
;

е) Произошло одно
и только одно событие
;

ж) Произошло два
и только два события
;

з) Ни одно
событие не произошло
.

Задача
№ 5.
В урне имеется 10 шаров: 3 белых и 7 черных. Из урны наугад

вынимают
один шар
.

Какова
вероятность того
, что этот шар: а) белый; б) черный?

Задача
№ 6.
Из слова «НАУГАД» наугад
выбирается одна буква
. Какова

вероятность
того
, что
__________эта буква А? Какова вероятность того, что это гласная

буква?

Задача№
7.
Монета бросается два раза. Найти
вероятности событий
:

1.
А = {герб выпадет один раз};

2.
В = {герб выпадет хотя бы один раз};

3.
С = {герб не выпадет ни разу}.

Задача
№ 8.
Бросаются две монеты. Какое из
событий является более

вероятным:

1.
А = {монеты лягут одинаковыми
сторонами
};

2.
В = {монеты лягут разными сторонами}?

Задача
№ 9.
Бросаются одновременно две
игральные кости
. Найти

вероятности
событий
:

1.
А = {произведение выпавших очков
равно
8};

2.
В = {сумма выпавших очков равна 8};

3.
С = {произведение выпавших очков
четно
};

4.
Д = {сумма выпавших очков четна};

5.
Е = {на обеих костях выпадет четное
число очков
};

Задача
№ 10.
Брошены три монеты. Найти
вероятность того
, что выпадут

два
2 «герба».

Задача
№ 11.
При стрельбе была получена
относительная частота

(частость) попадания 0,6. Сколько было сделано выстрелов, если получено 12

промахов?

Задача
№ 12.
При наборе телефонного номера
абонент забыл две

последние
цифры и набрал их наудачу
, помня только, что эти цифры нечетные и

разные. Найти
вероятность того
, что номер набран правильно.

Задача
№ 13.
Из пяти карточек с буквами А, Б, В, Г, Д наугад
одна за

другой
выбираются три и располагаются в ряд в порядке появления
. Какова

вероятность
того
, что
получится слово
«ДВА»?

Задача
№ 14.
В урне 3 белых и 7 черных шаров. Какова
вероятность того
,

что
вынутые наугад два шара окажутся черными
?
Одного цвета? Разных

цветов?

Задача
№ 15.
В ящике 10 красных и 6 синих пуговиц. Вынимаются
наудачу

две
пуговицы
. Какова вероятность того, что пуговицы будут одноцветными?

Задача
№ 16.
Найти вероятность того, что наудачу
взятое двузначное

число
окажется кратным
2, либо 5, либо тому и другому одновременно.

Задача
№ 17.
Студент знает 10 вопросов из 30 программы. Определить

вероятность
того
, что
из трех предложенных ему преподавателем вопросов

студент
знает
:

а) Все три
вопроса
;

б) Хотя бы один
вопрос
.

Задача№
18.
Студент пришел на зачет, зная из 30 вопросов
только
24. Какова

вероятность
сдать зачет
, если после отказа отвечать на вопрос преподаватель

задает
еще только один вопрос
?

Задача
№ 19.
В круг радиуса R вписан
квадрат
. Чему равна вероятность

того, что
поставленные наудачу внутри круга две точки окажутся внутри

квадрата?

Задача
№ 20.
Среди 25 экзаменационных
__________билетов 5 «хороших». Два

студента
по очереди берут по одному билету
. Найти вероятности следующих

событий:

1.
А ={первый студент взял хороший
билет
};

2.
В ={второй студент взял хороший
билет
};

3. С={оба студента
взяли хорошие билеты
}.

Отчет

Отчет должен быть
оформлен в текстовом редакторе и содержать:

¾     
наименование
работы;

¾     
цель
работы;

¾     
задание;

¾     
последовательность
выполнения работы;

¾     
ответы
на контрольные вопросы;

¾     
вывод
о проделанной работе.

ПРАКТИЧЕСКАЯ РАБОТА

СОСТАВЛЕНИЕ ЗАКОНА РАСПРЕДЕЛЕНИЯ
ВЕРОЯТНОСТЕЙ
.

Цель:
научиться составлять законы распределения вероятностей.

Оборудование:
ПК.

Программное
обеспечение: операционная система, калькулятор.

Теоретические
основы

Дискретной
называют случайную величину, возможные значения которой есть  отдельные
изолированные числа, которые эта величина принимает с определенными ненулевыми
вероятностями. Число возможных значений может быть конечным или бесконечным
(счетным).

Законом распределения дискретной случайной величины называют перечень её
возможных значений и соответствующих им вероятностей. Закон распределения может
быть задан одним из следующих способов.

  1. Таблицей                                                                                                                        

х

х1

х2

хn

р

р1

р2

pn

где
.

  1. Аналитически
    . Например:

а)
биномиальное распределение

, 0<р<1, k=0, 1, 2, …, n;

б) 
распределение Пуассона

, l>0, k=0, 1, 2, … .

3.     
С помощью функции распределения
F(x),
определяющей для каждого значения
x вероятность того, что
случайная величина
X примет значение, меньшее x, т. е. .

Свойства F(x):

1)     
;

2)     
, если ;

3)     

4.     
Закон распределения может быть
задан графически — многоугольником распределения (см. пример 1).

Числовые характеристики дискретных случайных величин

Математическое ожидание ;

Дисперсия   или  ;

Среднее квадратическое отклонение s(X)=.

Для биномиального распределения М(X)=np,
D(X)=npq. Для распределения
Пуассона М(
X)=l, D(X)= l.

Пример 1.

Устройство состоит из трех независимо работающих элементов.
Вероятность отказа каждого элемента в одном опыте равна 0,1. Составить закон
распределения числа отказавших элементов в одном опыте, построить многоугольник
распределения. Найти функцию распределения
F(x) и
построить её график. Найти М(
X), D(X), s(X).

Решение:
Дискретная случайная величина Х (число отказавших элементов в одном опыте)
имеет следующие возможные значения: х1=0 (ни один из элементов
устройства не отказал), х2=1 (отказал один элемент), х3=2
(отказало два элемента) и х4=3 (отказали три элемента).

Отказы элементов независимы один от другого,
вероятности отказа каждого элемента равны между собой, поэтому применима
формула Бернулли. Учитывая, что, по условию,
n=3,  р=0,1
(следовательно,
q=1–0,1=0,9), получим: Р3(0)=q3=0,93=0,729; 

 

Контроль:
;  0,729+0,243+0,027+0,001=1.

Искомый
биномиальный закон распределения Х

Х

0

1

2

3

р

0,729

Для
построения многоугольника распределения строим прямоугольную систему координат.
По оси абсцисс откладываем возможные значения х
i, а по оси ординат – соответствующие им вероятности рi. Построим точки М1(0;0,729), М2(1;0,243),
М3(2;0,027), М4(3;0,001). Соединив
эти точки отрезками прямых, получаем искомый многоугольник распределения
(Рис.1).

Рис.1

Найдем
функцию распределения
F(x)=Р(Х<х).

Для
 имеем
F(x)=Р(Х<0)=0;

для
 имеем
F(x)=Р(Х<1)=Р(Х=0)=0,729;

для
 
F(x)=Р(Х<2)=Р(Х=0)+Р(Х=1)=0,729+0,243=0,972;

для
 
F(x)=Р(Х<3)=Р(Х=0)+Р(Х=1)+ Р(Х=2)=0,972+0,027=0,999;

 для
х
>3 будет F(x)=1, т. к. событие достоверно.

.

График
этой функции приведен на Рис. 2.

Рис. 2

Для
биномиального распределения М(
X)=np=3×0,1=0,3; D(X)=npq=3×0,1×0,9=0,27;  s(X)=.

          Пример 2. 

         
В партии из 10 деталей имеется 8 стандартных. Наудачу отобраны две детали. Составить
закон распределения случайной величины
X – числа
стандартных деталей среди отобранных. Найти М(
X),
D(X).

Решение:
Случайная величина Х – число стандартных деталей среди отобранных 
деталей – имеет следующие возможные значения: х1=0; х2=1;
х3=2. Найдем вероятности возможных значений Х по формуле
(пример 2)  (
N
– число деталей в партии,
n – число стандартных деталей в партии, m
– число отобранных деталей,
k – число стандартных деталей среди отобранных),
находим:   

Составим
искомый закон распределения:

Контроль:
++=1. 

 

Пример 3.

В устройстве независимо друг от друга  выходят из
строя три элемента. Вероятность выхода из строя первого элемента – 0,3, второго
– 0,2, третьего – 0,4. Составить закон распределения случайной величины Х –
числа вышедших из строя  элементов.

Решение: случайная
величина Х имеет следующие возможные значения: х1=0, х2=1,
х3=2, х4=3. р1=0,3,
q1=1- р1=0,7, р2=0,2, q2=1- р2=0,8, р3=0,4, q3=1- р3=0,6.

P(X=k) вычисляем по следующим формулам (см. пример 4) ;

;

;

.

Контроль:
0,336+0,452+0,118+0,024=1.

Х

0

1

2

3

р

0,336

0,452

0,118

0,024

Искомый
закон распределения:

Пример 4.

Среднее число заказов такси, поступающих на
диспетчерский пункт в одну минуту, равно двум. Составить закон распределения
случайной величины Х – числа заказов,  поступающих за 4 минуты. Найти М(
X), D(X).

Решение:
Поток заказов на такси можно считать простейшим, т. е. обладающим
стационарностью, «отсутствием последствия» и ординарностью. Интенсивность
потока (среднее число событий появляющихся в единицу времени)
l=2. Вероятность появления k событий простейшего потока за
время
t=4 определяется формулой Пуассона , для данной задачи . Совокупность возможных значений X
есть счетное множество, т.е. х1=0, х2=1, … , х
k=k+1, …; тогда
закон распределения случайной величины Х – числа заказов, поступающих за 4
минуты принимает вид:

Х

0

1

2

k

р

или

Х

0

1

2

k

р

Воспользовавшись
таблицей 3 приложения, окончательно получим:

Х

0

1

2

k

р

0,00035

0,002684

0,010735

Наивероятнейшее
число заказов такси за 4 минуты можно определить по получившемуся закону
распределения ( значения х, при которых р максимально):
k¢0=7,  k²0=8. Для
простейшего потока событий: математическое ожидание , дисперсия

Пример 5.

Даны законы распределения независимых случайных
величин
X и Y. Составить закон распределения случайной величины Z=X+2Y.
Найти М(
Z), D(Z).

Решение: Закон распределения V=2Y
получается из распределения
Y путем умножения всех значений yi на 2. Получаем:

.

Для
составления закона распределения случайной величины
Z вычислим
все ее возможные значения по формуле , , .

Соответствующие
данным значениям  вероятности  можно вычислить по формуле
умножения вероятностей , т. к. события
 и  —
независимы (исходим из независимости случайных величин
X и Y) и
наступают совместно (событие {}
={совместное наступление событий  и }). Тогда распределение
Z
принимает вид

Z

-1

3

9

2

6

12

3

7

13

р

0,02

0,05

0,03

0,06

0,15

0.09

0,12

0,3

0,18

Рассмотрим
значения . События  и  несовместны,
поэтому вероятность наступления хотя бы одного из этих событий вычисляется по
правилу сложения вероятностей

Искомый
закон распределения случайной величины
Z получается
после размещения
zk по возрастанию.

Z

-1

2

3

6

7

9

12

13

р

0,02

0,06

0,17

0,15

0,3

0,03

0,09

0,18

Математическое
ожидание
M(Z)  и
дисперсию
D(Z) можно
найти по формулам:

 , где  =.

Рассмотрим
другой способ.

M(Z)
и D(Z) можно найти через М(Х), М(Y),
D(Х), D(Y).

,

т.
к. математическое ожидание суммы равно сумме математических ожиданий слагаемых;
постоянный множитель можно вынести за знак математического ожидания.

,

т.
к. дисперсия суммы независимых случайных величин  равна  сумме дисперсий
слагаемых; постоянный множитель можно вынести за знак дисперсии, возведя его в
квадрат.

         
Пример 6.

        
Стрелок ведет стрельбу с вероятностью попадания в цель 0,8 при каждом выстреле.
Стрельба ведется до первого попадания, но делается не более 3 выстрелов.
Составить закон распределения случайной величины Х, если: а) Х – число
промахов; б) Х – число попаданий; в) Х – число произведенных выстрелов.

Решение: Вероятность попадания р=0,8; вероятность промаха q=1-p=0,2.

    
а) Случайная величина Х – число промахов при трех выстрелах – имеет следующие
возможные значения: ;;;.

Событие
Х=0 равносильно попаданию с первой попытки, следовательно, Р(Х=0)=р=0,8.

Событие
Х=1 равносильно попаданию со второй попытки, т. е. совместному наступлению двух
событий: промаха и попадания; следовательно, Р(Х=1)=
qр=0,20,8=0,16.

Событие
Х=2 равносильно попаданию с третьей попытки, т. е. Р(Х=2)=
qqр=0,20,20,8=0,032.

Событие
Х=3 означает отсутствие попаданий, Р(Х=3)=
qqq==0,008.

Искомый
закон распределения Х:

Х

0

1

2

3

р

0,8

0,16

0,032

0,008

    
б) Случайная величина Х – число попаданий – имеет следующие возможные значения:
(допущено три промаха);(произошло попадание с первой,
второй или третьей попытки).

Тогда 
Р(Х=0)=
 ==0,008;

            Р(Х=1)= р+qр+qqр=0,8+0,16+0,032=0,992

   или
Р(Х=1)=1-Р(Х=0)=1-0,008=0,992.

Искомый закон распределения
Х:

     в) Случайная величина Х
– число произведенных выстрелов – имеет следующие возможные значения: ;;.

Событие Х=1 равносильно
попаданию с первой попытки, т. е. Р(Х=1)=р=0,8.

Событие
Х=2 равносильно попаданию со второй попытки, т. е. Р(Х=2)=
qр=0,16.

Событие
Х=3 означает, что либо произошло попадание с третьей попытки, либо было три
промаха. Тогда Р(Х=3)=
qqр+qqq=0,032+0,008=0,04.

Искомый
закон распределения Х:

Задачи

Вариант 1.
Производятся последовательные независимые испытания приборов на надёжность.
Каждый следующий прибор испытывается лишь в том случае, если предыдущий
оказался надежным. Построить закон распределения случайного числа испытанных
приборов, если вероятность выдержать испытание для каждого из них равна 0,9.
Найти математическое ожидание числа испытанных приборов. Найти функцию распределения
F(x) и построить ее график; найти М(X), s(X); построить многоугольник распределения.

Вариант 2.
Известно, что в партии из 20 телефонных аппаратов 5 недействующих. Случайным
образом из этой партии взято 4 аппарата. Построить закон распределения случайной
величины Х –  числа недействующих аппаратов из отобранных. Найти дисперсию этой
случайной величины. В каких единицах она измеряется?  Построить график функции
распределения
F(x) случайной величины Х, многоугольник  распределения.

Вариант 3.
Сырье на завод привозят от трех независимо работающих поставщиков. Вероятность
своевременного прибытия сырья от первого поставщика равна 0,4, от второго –
0,7, от третьего – 0,6. Найти математическое ожидание М(
X),
дисперсию
D(X) числа своевременных поставок сырья. Найти функцию
распределения и построить ее график.

Вариант 4.
Завод получает сырье на автомашинах от трех независимо работающих поставщиков.
Вероятность прибытия автомашины от первого поставщика равна 0,2, от второго –
0,3 и от третьего – 0,1. Составить распределение числа прибывших автомашин.
Найти математическое ожидание и дисперсию полученной величины. Построить график
функции распределения
F(x). 

Вариант 5.
Вероятность изготовления бракованной детали р=0,1. Изготовлено 4 детали. Х –
случайное число бракованных деталей. Построить закон распределения случайной
величины
X, найти ее математическое ожидание и дисперсию.
Построить график функции распределения, многоугольник распределения.

Вариант 6.
Среднее число заявок, поступающих на предприятие бытового обслуживания за 1
час, ровно 2. Составить закон распределения случайной величины Х – числа
заявок, поступивших за 3 часа. Найти М(
X), D(X) и
наивероятнейшее число заявок за 3 часа.

Вариант 7. В
среднем в магазин заходит 3 человека в минуту. Составить закон распределения
случайной величины Х –  числа зашедших в магазин человек за 2 минуты. Построить
многоугольник распределения. Найти М(
X), D(X).

Вариант 8. Даны
законы распределения независимых случайных величин

Составить
законы распределения случайных величин:

а)XY;
б)
X+Y. Найти М(X+Y), D(X+Y).
Справедливо ли равенство М(
X)×М(Y)=М(X×Y)?

 Вариант 9.
Команда состоит из двух стрелков. Числа очков, выбиваемых каждым из них при
одном выстреле, являются случайными величинами Х1 и Х2 ,
которые характеризуются следующими законами распределения:

Х2

2

3

4

5

Р

0,2

0,1

0,2

0,5

и 

Результаты
стрельбы одного стрелка не влияют на результат стрельбы другого. Составить
закон распределения числа очков, выбиваемых командой, если стрелки сделают по
одному выстрелу. Убедиться в справедливости равенства
D12)=D1)+D2).

Вариант 10.
Производятся выстрелы из орудия с вероятностью попадания  в цель 0,9 при каждом
выстреле. Стрельба ведётся до первого попадания, но делается не более 4
выстрелов. Составить закон распределения случайной величины
X,
если: а)
X  – число произведенных выстрелов; б) X  –
число промахов; в)
X – число попаданий. Найдите математическое ожидание
всех найденных случайных величин.

Отчет

Отчет должен содержать:

¾     
наименование
работы;

¾     
цель
работы;

¾     
задание;

¾     
последовательность
выполнения работы;

¾     
ответы
на контрольные вопросы;

¾     
вывод
о проделанной работе.

Контрольные вопросы

1. Какие значения не может принимать вероятность?

2. Чему равна вероятность достоверного события?
Невозможного?

3. Дайте определение закону распределения дискретной
случайной величины.

4. Дайте определение математическому ожиданию?

Критерии
оценивания практической работы:

5
 (отлично) –
работа
выполнена полностью и правильно, сделаны правильные выводы; работа выполнена по
плану с учетом техники безопасности.

4  (хорошо) – работа
выполнена правильно с учетом 2-3 несущественных ошибок исправленных
самостоятельно по требованию преподавателя.

3  (удовлетворительно) – работа выполнена правильно не менее чем на половину
или допущена существенная ошибка.

2
 (неудовлетворительно) –
допущены две (и более) существенные ошибки в ходе
работы, которые студент не может исправить даже по требованию преподавателя.

РАЗДЕЛ 3. ЗАЩИТЫ И ПЕРЕДАЧА ИНФОРМАЦИИ

УСТНЫЙ ОПРОС ПО ТЕМЕ

«СЖАТИЕ ИНФОРМАЦИИ»

Вопросы:

  1. Понятие
    сжатия информации
  2. Простейшие
    алгоритмы сжатия информации,
  3. Методы
    Лемпела-Зива,
  4. Особенности
    программ архиваторов.

Критерии
оценки устного ответа:

«5
(отлично)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, литературным языком: ответ самостоятельный. 

«4
(хорошо)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, при этом допущены две-три несущественные ошибки,
исправленные по требованию преподавателя. 

«3
(удовлетворительно)»
: ответ полный,
но при этом допущена существенная ошибка, или неполный, несвязный. 

«2
(неудовлетворительно)»
: при ответе
обнаружено непонимание студентом основного содержания учебного материала или
допущены существенные ошибки, которые студент не смог исправить при наводящих
вопросах преподавателя.

ТЕСТ НА ТЕМУ «СЖАТИЕ ИНФОРМАЦИИ»

1.
Сжатие информации позволяет …

а)  уменьшить избыточность информации

б)  уменьшить энтропию информации

в)  уменьшить объективность информации

г)  уменьшить полноту информации

2.  Какого
вида (понятия) избыточности теории информации не существует?

а)  смысловой

б)  объективной

в)  физической

г)  статистической

3. Метод сжатия текстовой информации, предложенный в 1952
году Дэвидом Хафманом, и основанный на том, как часто встречается данный символ
в тексте, это метод сжатия

а)  без потерь

б)  с потерями

4.
 Что такое префиксный код?

а)  код, в котором требуется указывать
длину кода

б)  код, в котором коды символов имеют
одинаковую длину

в)  это код, в котором код одного
символа не может быть началом кода другого символа 

5.  С каким
видом избыточности информации в основном имеют дело алгоритмы архивации?

а) со смысловой избыточностью

б) с  физической избыточностью

в)  со статистической избыточностью

6. 
Какие типы файлов из перечисленных,
плохо сжимаются?

а) *.xls

б) *.exe

в)  *.doc

г)  *.txt

7.  Какой вид избыточности информации присущ только
человеческому общению?

а) смысловая избыточность

б) физическая избыточность

в)  статистическая избыточность

8.  Четырем  
сообщениям   поставлены  в   соответствие коды:  00   01   10   11. Как можно
уменьшить избыточность, убрав бесполезный бит, но не исказив при этом
передаваемую информацию?

а)  0    01   10   11

б)  00   1    10   11

в)  00   01   0    11

г)  00   01   10   1

9. Какие данные из перечисленных обладают большей
избыточностью?

а) текстовые данные

б) графические данные

в) видеоданные

г) числовые данные

10. Метод сжатия, основанный на учете повторяющихся байтов
или последовательности байтов, это

а)  сжатие с потерями

б)  сжатие без потерь

11.
От чего не зависит степень
сжатия файла?

а)  от используемой программы

б)  от метода сжатия

в)  от типа исходного файла

г)  от объема исходного файла

12.
Лучшую степень сжатия можно получить
от сжатия

а) с потерями

б) без потерь

Ответы на тест


а

7  
а


б


г


а


в


в

10 
б


в

11 
г

6  б

12 
а

Критерии
оценивания теста:

5
(отлично) –
правильно выполнены 11-12
заданий.

4
(хорошо) –
правильно выполнены 9-10
задания.

3
(удовлетворительно) –
правильно
выполнены 7-8 заданий.

2
(неудовлетворительно) –
правильно
выполнены менее 7 заданий.

УСТНЫЙ ОПРОС ПО ТЕМЕ

«КОДИРОВАНИЕ»

Вопросы:

1.            
Помехоустойчивое кодирование.

2.            
Адаптивное арифметическое
кодирование.

3.            
Цифровое кодирование

4.            
Аналоговое кодирование

5.            
Таблично-символьное кодирование, числовое
кодирование.

Критерии
оценки устного ответа:

«5
(отлично)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, литературным языком: ответ самостоятельный. 

«4
(хорошо)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, при этом допущены две-три несущественные ошибки,
исправленные по требованию преподавателя. 

«3
(удовлетворительно)»
: ответ полный,
но при этом допущена существенная ошибка, или неполный, несвязный. 

«2
(неудовлетворительно)»
: при ответе
обнаружено непонимание студентом основного содержания учебного материала или
допущены существенные ошибки, которые студент не смог исправить при наводящих
вопросах преподавателя.

ТЕСТ «КОДИРОВАНИЕ ИНФОРМАЦИИ»

Задание  1

Вопрос:

Декодируйте
слова при помощи перестановки букв и сделайте сопоставление

Укажите
соответствие для всех 3 вариантов ответа:

1)
символ

2)
сигнал

3)
сканер

__
ловсим

__
гисанл

__
ксаерн

Задание  2

Вопрос:

Правда
ли, что одна и та же информация может быть закодирована разными способами и представлена
в разных формах?

Выберите
один из 2 вариантов ответа:

Задание  3

Вопрос:

При
помощи какого кода закодирована вся информация в компьютере?

Выберите
один из 4 вариантов ответа:

1)
восьмеричного

2)
кода дорожных знаков

3)
двоичного

4)
азбуки Брайля

Задание  4

Вопрос:

Расшифруйте
и запишите слово, закодированное при помощи шифра Цезаря, используя алфавит:

лрчсургщлв

Запишите
ответ:

__________________________________________

Задание  5

Вопрос:

Расшифруйте
и запишите слово, закодированное числовым способом:

17
33 20 10 12 13 1 19 19 15 10 12

Изображение:

Запишите
ответ:

__________________________________________

Задание  6

Вопрос:

Выберите
способы кодирования информации:

Выберите
несколько из 4 вариантов ответа:

1)
экстрасенсорный

2)
графический

3)
числовой

4)
символьный

Задание  7

Вопрос:

Сделайте
сопоставление между рисунками и названиями видов кодирования информации

Укажите
соответствие для всех 3 вариантов ответа:

1)
графический способ кодирования

2)
числовой способ кодирования

3)
символьный способ кодирования

__

__

__

Задание  8

Вопрос:

Вставьте
в определении пропущенное слово. «Система условных знаков для
представления информации называется … «

Запишите
ответ:

__________________________________________

Задание  9

Вопрос:

 Как
называется процесс обратный кодированию?

Выберите
один из 4 вариантов ответа:

1)
информирование

2)
редактирование

3)
изменение

4)
декодирование

Задание  10

Вопрос:

Музыкальное
произведение кодируется с помощью

Выберите
один из 4 вариантов ответа:

1)
азбуки Брайля

2)
дорожных знаков

3)
флажковой азбуки

4)
нотных знаков

Ответы:

1) 
Верные ответы:

            1;

            2;

            3;

2) 
Верные ответы: 1;

3) 
Верные ответы: 3;

4) 
Верный ответ: «информация».

5) 
Верный ответ: «пятиклассник».

6) 
Верные ответы: 2; 3; 4;

7) 
Верные ответы:

            1;

            3;

            2;

8)  
Верный ответ: «код, кодом».

9) 
Верные ответы: 4;

10) 
Верные ответы: 4;

Критерии
оценивания теста:

5
(отлично) –
правильно выполнены 9-10
заданий.

4
(хорошо) –
правильно выполнены 7-8
задания.

3
(удовлетворительно) –
правильно
выполнены 5-6 заданий.

2
(неудовлетворительно) –
правильно
выполнены менее 5 заданий.

ПРАКТИЧЕСКАЯ РАБОТА

«ПРАКТИЧЕСКОЕ ПРИМЕНЕНИЕ
АЛГОРИТМОВ КОДИРОВАНИЯ»

Цель: Познакомиться с
различными кодировками символов, используя текстовые редакторы, выполнить
задания в различных текстовых приложениях.

Оборудование:
ПК.

Программное
обеспечение: операционная система, текстовые редакторы.

Теоретические основы

Правило цифрового представления символов следующее:
каждому символу ставится в соответствие некоторое целое число, то есть каждый
символ нумеруется.

Пример:

Рассмотрим последовательность строчных
букв русского алфавита: а, б, в, г, д, е, ё, ж, з, и, й. к, л, м. н. о, п, р,
с, т, у, ф, х, ц, ч, ш, щ, ъ, ы, в, э, ю, я. Присвоив каждой букве номер от 0
до 33. получим простейший способ представления символов. Последнее число — 32 в
двоичной форме имеет вид 100000, то есть для хранения символа в памяти
понадобится 6 бит.Так как с помощью шести бит можно представить число 26
— 1 = 63, то шести бит будет достаточно для представления 64 букв.

Имеются разные стандарты для
представления, символов, которые отличаются лишь порядком нумерации символов.
Наиболее распространён американский стандартный код для информационного обмена
— ASCII [American Standard-Code for Information Interchange] введён в США в
1963г. В 1977 году в несколько модифицированном виде он был принят в качестве
всемирного стандарта Международной организации стандартов [International
Standards Organization -. ISO] под названием ISO-646. Согласно этому стандарту
каждому символу поставлено в соответствие число от 0 до 255. Символы от 0 до
127 — латинские буквы, цифры и знаки препинания — составляют постоянную часть
таблицы. Остальные символы используются для представления национальных
алфавитов. Конкретный состав этих символов определяется кодовой страницей. В
русской версии ОC Windows95 используется кодовая, страница 866. В ОС Linux для
представления русских букв более употребительна кодировка КОИ-8. Недостатки
такого способа кодировки национального, алфавита очевидны. Во-первых,
невозможно одновременное представление русских и ,например, французских букв.
Во-вторых, такая кодировка совершенно непригодна для представления, китайских
иероглифов. В 1991 году была создана некоммерческая организация Unicode, в
которую входят представители ряда фирм (Borland. IBM, Noyell, Sun и др) и
которая занимается развитием и внедрением нового стандарта. Кодировка Unicode
использует 16 разрядов ,и может содержать 65536 символов. Это символы большинства
народов мира, элементы иероглифов, спецсимволы, 5000 – мест для частного
использования, резерв из 30000 мест.

Пример:

ASCII-код символа А= 6510 =4116=
010001112;

Unicode-код символа С= 6710=00000000011001112

Задания                                   
                                                                                    

1.        
Закодируйте свое имя,
фамилию и отчество с помощью одной из таблиц (
win-1251, KOI-8)

2.        
Раскодируйте ФИО
соседа

3.        
Закодируйте следующие
слова, используя таблицы
ASCII-кодов:
ИНФОРМАТИЗАЦИЯ, МИКРОПРОЦЕССОР, МОДЕЛИРОВАНИЕ

4.        
Раскодируйте следующие
слова, используя таблицы
ASCII-кодов:

88 AD E4 AE E0 AC
A0 E2 A8 AA A0

50 72 6F 67 72 61 6D

43 6F 6D 70 75 74 65 72
20 49 42 4
D 20 50 43

5. Текстовый редактор Блокнот

Открыть блокнот.

а) Используя клавишу Alt и малую цифровую клавиатуру
раскодировать фразу:
145 170 174 224 174 255 170 160 173 168 170 227 171 235; 

Технология выполнения задания: При удерживаемой клавише Alt, набрать на малой
цифровой клавиатуре указанные цифры. Отпустить клавишу Alt, после чего в тексте
появится буква, закодированная набранным кодом.

б) Используя ключ к кодированию, закодировать слово
 – зима;

Технология выполнения задания: Из предыдущего задания выяснить, каким кодом записана
буква а. Учитывая, что буквы кодируются в алфавитном порядке, выяснить коды
остальных букв.

Что вы заметили при выполнении этого задания во время
раскодировки? Запишите свои наблюдения.

6. Текстовый процессор.

Технология выполнения задания: рассмотрим на примере: представить в различных
кодировках слово Кодировка

Решение:

·           
Создать новый текстовый документ в
текстовом редакторе;

·           
Выбрать  – Команда – 
Вставка – Символ.          
В открывшемся окне «Символ» установить из: Юникод (шестн.),

·           
В наборе символов находим
букву  К и щелкнем на ней левой кнопкой мыши (ЩЛКМ).

·           
В строке код знака  появится
код выбранной буквы 041А (незначащие нули тоже записываем).

·           
У буквы о код – 043Е и так
далее: д – 0434, и – 0438, р – 0440, о – 043Е, в – 0432, к – 043А, а – 0430.

·           
Установить Кириллица (дес.)

·           
К – 0202, о – 0238, д – 0228, и –
0232, р – 0240, о – 0238, в –0226, к – 0202, а –0224.

7. Открыть
Текстовый редактор

Используя окно «Вставка символа» выполнить задания:
Закодировать слово Forest

а) Выбрать шрифт Courier New, кодировку ASCII(дес.)
Ответ: 70 111 114 101 115 116
б) Выбрать шрифт Courier New, кодировку Юникод(шест.) Ответ: 0046 006F
0072 0665 0073 0074

в) Выбрать шрифт Times New Roman, кодировку
Кирилица(дес.) Ответ: 70 111 114 101 115 116

г) Выбрать шрифт Times New Roman, кодировку ASCII(дес.)
Ответ: 70 111 114 101 115 116

Вывод:
_________________________________________________________

Выполнение лабораторной работы оформить в виде
таблицы.

8. Буква Z  имеет десятичный код 90, а z – 122.
Записать слово «sport» в десятичном коде.

9. С помощью десятичных кодов зашифровано слово «info»
105 110 102 111. Записать последовательность десятичных кодов для этого же
слова, но записанного заглавными буквами.

10. Буква Z  имеет десятичный код 90, а z – 122.
Записать слово «forma» в десятичном коде.

11. С помощью десятичных кодов зашифровано слово
«port» 112 111 114 116. Записать последовательность десятичных кодов для этого
же слова, но записанного заглавными буквами. Ответ: 80 79 82 84

Отчет

Отчет должен быть
оформлен в текстовом редакторе и содержать:

¾     
наименование
работы;

¾     
цель
работы;

¾     
задание;

¾     
последовательность
выполнения работы;

¾     
ответы
на контрольные вопросы;

¾     
вывод
о проделанной работе.

Контрольные вопросы

1. Какие возможности предоставляет
текстовые редакторы по работе с символами?

2. Какие вы знаете алгоритмы кодирования
информации?

3. Где применяется алгоритм кодирования
информации?

Критерии
оценивания практической работы:

5
 (отлично) –
работа
выполнена полностью и правильно, сделаны правильные выводы; работа выполнена по
плану с учетом техники безопасности.

4  (хорошо) – работа
выполнена правильно с учетом 2-3 несущественных ошибок исправленных
самостоятельно по требованию преподавателя.

3  (удовлетворительно) – работа выполнена правильно не менее чем на половину
или допущена существенная ошибка.

2
 (неудовлетворительно) –
допущены две (и более) существенные ошибки в ходе
работы, которые студент не может исправить даже по требованию преподавателя.

ПРАКТИЧЕСКАЯ
РАБОТА

«КОДИРОВАНИЕ
ИНФОРМАЦИИ»

Цель: познакомиться с
различными кодировками звуковой информации и с характеристиками звуковых
файлов.

Оборудование:
ПК.

Программное
обеспечение: операционная система, звуковые редакторы.

Теоретические основы

С начала 90-х годов персональные компьютеры получили
возможность работать со звуковой информацией. Каждый компьютер, имеющий
звуковую плату, может сохранять в виде файлов (файл — это определённое
количество информации, хранящееся на диске и имеющее имя) и воспроизводить
звуковую информацию. С помощью специальных программных средств (редакторов аудио
файлов) открываются широкие возможности по созданию, редактированию и
прослушиванию звуковых файлов. Создаются программы распознавания речи, и
появляется возможность управления компьютером голосом.

    Именно звуковая плата (карта) преобразует аналоговый
сигнал в дискретную фонограмму и наоборот, «оцифрованный» звук – в аналоговый
(непрерывный) сигнал, который поступает на вход динамика.

     При двоичном кодировании аналогового звукового
сигнала непрерывный сигнал дискретизируется, т.е. заменяется серией его
отдельных выборок — отсчётов. Качество двоичного кодирования зависит от двух
параметров: количества дискретных уровней сигнала и количества выборок в
секунду. Количество выборок или частота дискретизации в аудиоадаптерах бывает
различной: 11 кГц, 22 кГц, 44,1 кГц и др. Если количество уровней равно 65536,
то на один звуковой сигнал рассчитано 16 бит (216). 16-разрядный аудиоадаптер
точнее кодирует и воспроизводит звук, чем 8-разрядный.

    Количество бит, необходимое для кодирования одного
уровня звука, называется глубиной звука. Объём моноаудиофайла (в байтах)
определяется по формуле:

    При стереофоническом звучании объём аудиофайла
удваивается, при квадрофоническом звучании – учетверяется.

     По мере усложнения программ и увеличения их функций,
а также появления мультимедиа-приложений, растёт функциональный объём программ
и данных. Если в середине 80-х годов обычный объём программ и данных составлял
десятки и лишь иногда сотни килобайт, то в середине 90-х годов он стал
составлять десятки мегабайт. Соответственно растёт объём оперативной памяти.

Пример решения: Подсчитать, сколько места будет
занимать одна минута цифрового звука на жестком диске или любом другом цифровом
носителе, записанного с частотой

а)
44.1 кГц;

б)
11 кГц;

в)
22 кГц;

г)
32 кГц

и
разрядностью 16 бит.

Решение.

а)
Если записывают моносигнал с частотой 44.1 кГц, разрядностью 16 бит (2 байта),
то каждую минуту аналого-цифровой преобразователь будет выдавать 441000 * 2 *
60 = 529 000 байт (около 5 Мб) данных об амплитуде аналогового сигнала, который
в компьютере записываются на жесткий диск.

Если
записывают стереосигнал, то 1 058 000 байт (около 10 Мб).

Задания

1. Какой объем памяти требуется для хранения цифрового
аудиофайла с записью звука высокого качества при условии, что время звучания
составляет 3 минуты?

2.    
Какой объем данных имеет моноаудиофайл, длительность звучания которого 1
секунда, при среднем качестве звука (16 бит, 24 кГц)?

3.    
Рассчитайте объем стереоаудиофайла длительностью 20 секунд при 20-битном кодировании
и частоте дискредитации 44.1 кГц. Варианты: 44,1 Mb, 4.21 Mb, 3,53 Mb.

4.
Оцените информационный объем моноаудиофайла длительностью звучания 20 с, если
«глубина» кодирования и частота дискретизации звукового сигнала равны
соответственно 8 бит и 8 кГц;

5. 
Рассчитайте время звучания моноаудиофайла, если при 16-битном кодировании и
частоте дискретизации 32 кГц его объем равен 700 Кбайт;

6.
Запишите звуковой моноаудиофайл длительностью 20 с, с «глубиной»
кодирования 8 бит и частотой дискретизации 8 кГц.

7.
Определите качество звука (качество радиотрансляции, среднее качество, качество
аудио-
CD) если известно, что объем стериоаудиофайла
длительностью звучания в 10 сек. Равен 940 Кбайт;

8.
Оцените информационный объем стериоаудиофайла длительностью звучания 30 с, если
«глубина» кодирования и частота дискретизации звукового сигнала равны
соответственно 8 бит и 8 кГц;

9.
Запишите звуковой файл длительностью 30с с «глубиной» кодирования
8бит и частотой дискретизации 8 кГц. Вычислите его объем и сверьтесь с полученным
на практике значением.

10.
Аналоговый звуковой сигнал был дискретизирован сначала с использованием 256
уровней интенсивности сигнала (качество звучания радиотрансляции), а затем с
использованием 65536 уровней интенсивности сигнала (качество звучания аудио-
CD).
Во сколько раз различаются информационные объемы оцифрованного звука?

11.
Оцените информационный объем моноаудиофайла длительностью звучания 1 мин. если
«глубина» кодирования и частота дискретизации звукового сигнала равны
соответственно:

16
бит и 48 кГц.

12.
Запишите звуковой моноаудиофайл длительностью 1 минута с «глубиной»
кодирования 16 бит и частотой дискретизации 48 кГц.

13.
Подсчитать объем файла с 10 минутной речью записанного с частотой дискретизации
11025 Гц при 4 разрядном кодировании

14.
Подсчитать время звучания звукового файла объемом 3.5 Мбайт содержащего стерео
запись с частотой дискретизации 44100 Гц, 16-ти разрядном кодировании.

15.
Определите количество уровней звукового сигнала при использовании 8-битных
звуковых карт. Варианты: 256, 512,1024, 65 536.

16.
Приведите пример:

а)
аналогового способа представления звуковой информации;

б)
дискретного способа представления звуковой информации.

17.
Подготовить презентацию, демонстрирующую возможности звуковых форматов
midi,
wav, mp3, mod.

18.
Перечислите параметры, от которых зависит качество двоичного кодирования звука.

Отчет

Отчет должен быть
оформлен в текстовом редакторе и содержать:

¾     
наименование
работы;

¾     
цель
работы;

¾     
задание;

¾     
последовательность
выполнения работы;

¾     
ответы
на контрольные вопросы;

¾     
вывод
о проделанной работе.

Контрольные вопросы

1. С
какими звуковыми форматами вы встречаетесь чаще в повседневной жизни?

2. Дайте
определение аудиоадаптеру?

3. Что
значит оцифровка звука?

Критерии
оценивания практической работы:

5
 (отлично) –
работа
выполнена полностью и правильно, сделаны правильные выводы; работа выполнена по
плану с учетом техники безопасности.

4  (хорошо) – работа
выполнена правильно с учетом 2-3 несущественных ошибок исправленных
самостоятельно по требованию преподавателя.

3  (удовлетворительно) – работа выполнена правильно не менее чем на половину
или допущена существенная ошибка.

2
 (неудовлетворительно) –
допущены две (и более) существенные ошибки в ходе
работы, которые студент не может исправить даже по требованию преподавателя.

ПРАКТИЧЕСКАЯ РАБОТА

«КОДИРОВАНИЕ ИНФОРМАЦИИ»

Цель: научиться
кодировать растровые графические файлы; научиться измерять информационный объем
графических файлов.

Оборудование:
ПК.

Программное
обеспечение: операционная система, графические редакторы.

Теоретические основы

Графическая информация на экране дисплея
представляется в виде изображения, которое формируется из точек (пикселей).
Всмотритесь в газетную фотографию, и вы увидите, что она тоже состоит из
мельчайших точек. Если это только чёрные и белые точки, то каждую из них можно
закодировать 1 битом. Но если на фотографии оттенки, то два бита позволяет
закодировать 4 оттенка точек: 00 — белый цвет, 01 — светло-серый, 10 —
тёмно-серый, 11 — чёрный. Три бита позволяют закодировать 8 оттенков и т.д.

    Количество бит, необходимое для кодирования одного
оттенка цвета, называется глубиной цвета.

 В современных компьютерах разрешающая способность
(количество точек на экране), а также количество цветов зависит от
видеоадаптера и может изменяться программно.

    Цветные изображения могут иметь различные режимы:
16 цветов, 256 цветов, 65536 цветов (high color), 16777216 цветов (true color).
На одну точку для режима high color необходимо 16 бит или 2 байта.

    Наиболее распространённой разрешающей способностью
экрана является разрешение 800 на 600 точек, т.е. 480000 точек. Рассчитаем
необходимый для режима high color объём видеопамяти: 2 байт *480000=960000
байт.

    Для измерения объёма информации используются и
более крупные единицы:

Следовательно, 960000 байт приблизительно равно 937,5
Кбайт. Если человек говорит по восемь часов в день без перерыва, то за 70 лет
жизни он наговорит около 10 гигабайт информации (это 5 миллионов страниц —
стопка бумаги высотой 500 метров).

Скорость передачи информации — это количество битов,
передаваемых в 1 секунду. Скорость передачи 1 бит в 1 секунду называется 1 бод.

    В видеопамяти компьютера хранится битовая карта,
являющаяся двоичным кодом изображения, откуда она считывается процессором (не
реже 50 раз в секунду) и отображается на экран.

Задачи:

1.   
Известно,
что видеопамять компьютера имеет объем 512 Кбайт. Разрешающая способность
экрана 640 на 200. Сколько страниц экрана одновременно разместится в
видеопамяти при палитре: а) из 8 цветов,  б) 16 цветов; в) 256
цветов?

2.   
 Сколько
бит требуется, чтобы закодировать информацию о 130 оттенках?

3.   
Подумайте,
как уплотнить информацию о рисунке при его записи в файл, если известно, что:
а) в рисунке одновременно содержится только 16 цветовых оттенков из 138
возможных; б) в рисунке присутствуют все 130 оттенков одновременно, но
количество точек, закрашенных разными оттенками, сильно различаются.

4.   
Найдите
в сети Интернет информацию на тему «Цветовые модели
HSB, RGB, CMYK» и создайте на
эту тему презентацию. В ней отобразите положительные и отрицательные стороны
каждой цветовой модели, принцип ее функционирования и применение.

5.   
В
приложении «Точечный рисунок» создайте файл размером (по вариантам):

А) 200*300, (№ по
списку 1, 8, 15, 22, 29)

Б) 590*350, (№ по
списку 2, 9, 16, 23, 30)

В) 478*472, (№ по
списку 3, 10, 17, 24, 31)

Г)190*367, (№ по
списку 4, 11, 18, 25, 32)

Д) 288*577; (№ по
списку 5, 12, 19, 26, 33)

Е) 100*466, (№ по
списку 5, 13, 20, 27, 34)

Ж) 390*277. (№ по
списку  6, 14, 21, 28)

Сохраните его под
следующими расширениями:

— монохромный
рисунок,

— 16-цветный
рисунок,

— 256-цветный
рисунок,

— 24-битный
рисунок,

— формат JPG.

Используя
информацию о размере каждого из полученных файлов, вычислите количество
используемых цветов в каждом из файлов, проверьте с полученным на практике.
Объясните, почему формула расчета количества цветов не подходит для формата
JPG. Для этого
воспользуйтесь информацией  из сети Интернет.

6.    На бумаге в клетку
(или в приложении табличный редактор) нарисуйте произвольный рисунок 10*10
клеток. Закодируйте его двоичным кодом (закрашена клетка – 1, не закрашена —
0). Полученный код отдайте одногруппнику для раскодирования и получения
изображения.

Отчет

Отчет должен содержать:

¾     
наименование
работы;

¾     
цель
работы;

¾     
задание;

¾     
последовательность
выполнения работы;

¾     
ответы
на контрольные вопросы;

¾     
вывод
о проделанной работе.

Контрольные вопросы

1.
Влияет разрешение рисунка на объем файла?

2.
Чем отличаются цветовые модели?

3.
Что означает глубина цвета?

Критерии
оценивания практической работы:

5
 (отлично) –
работа
выполнена полностью и правильно, сделаны правильные выводы; работа выполнена по
плану с учетом техники безопасности.

4  (хорошо) – работа
выполнена правильно с учетом 2-3 несущественных ошибок исправленных
самостоятельно по требованию преподавателя.

3  (удовлетворительно) – работа выполнена правильно не менее чем на половину
или допущена существенная ошибка.

2
 (неудовлетворительно) –
допущены две (и более) существенные ошибки в ходе
работы, которые студент не может исправить даже по требованию преподавателя.

ПРАКТИЧЕСКАЯ
РАБОТА

«ДЕКОДИРОВАНИЕ
ИНФОРМАЦИИ»

Цель работы: Ознакомление с правилами и получение
практических навыков кодирования и декодирования информации.

Оборудование:
ПК.

Программное
обеспечение: операционная система, графические редакторы.

Теоретические основы

Кодирование
информации это преобразование формы представления информации с целью ее
передачи или хранения. Кодирование это представление символов одного алфавита символами
другого. Правила, по которым осуществляется кодирование называются кодом. Под
словом понимают последовательность символов, количество символов в которой
называется длиной кода. Слова так же называют кодовыми комбинациями. Если при
кодировании получают комбинации одинаковой длины, то такой код называют
равномерным, а длину кодовых комбинаций в этом слове называют значимостью кода.
Если кодовые комбинации различной длины, то код называется неравномерным.

Процесс
обратный кодированию называется декодированием.

Если в коде
ни одна более короткая комбинация не является началом более длинной кодовой
комбинации, то код называется префиксным.

¾    кодирование – это
перевод информации с одного языка на другой (запись в другой системе символов,
в другом алфавите)

¾    обычно
кодированием называют перевод информации с «человеческого» языка на формальный,
например, в двоичный код, а декодированием – обратный переход

¾    один символ
исходного сообщения может заменяться одним символом нового кода или несколькими
символами, а может быть и наоборот – несколько символов исходного сообщения
заменяются одним символом в новом коде (китайские иероглифы обозначают целые
слова и понятия)

¾    кодирование может
быть равномерное и неравномерное;
при равномерном кодировании все символы кодируются кодами равной длины;
при неравномерном кодировании разные символы могут кодироваться кодами разной
длины, это затрудняет декодирование

Пример задания:

Для кодирования букв А, Б, В,
Г решили использовать двухразрядные последовательные двоичные числа (от 00 до
11, соответственно). Если таким способом закодировать последовательность
символов БАВГ и записать результат шестнадцатеричным кодом, то получится

1) 4B16                        2) 41116 
         3)BACD16      4) 102316 

Решение:

1)      из условия коды
букв такие: A – 00, Б –01, В – 10 и Г – 11, код равномерный

2)      последовательность
БАВГ кодируется так: 01 00 10 11 = 1001011

3)      разобьем  такую
запись на тетрады справа налево и каждую тетраду переведем в шестнадцатеричную
систему (то есть, сначала в десятичную, а потом заменим все числа от 10 до 15
на буквы A, B, C, D, E, F); получаем

1001011 = 0100  10112 = 4B16

4)      правильный ответ –
1.

Возможные
ловушки
:

·    расчет
на то, что при переводе тетрад в шестнадцатеричную систему можно забыть
заменить большие числа (10–15) на буквы (10112 = 11, получаем неверный
ответ 41116)

·    может
быть дан неверный ответ, в котором нужные цифры поменяли местами (расчет на
невнимательность), например,
B416

·    в ответах дана
последовательность, напоминающая исходную (неверный ответ
BACD16), чтобы сбить случайное угадывание

Пример задания:

Для 5 букв латинского алфавита заданы их двоичные коды
(для некоторых букв – из двух бит, для некоторых – из трех). Эти  коды
представлены в таблице:

A

B

C

D

E

000

01

100

10

011

Определить, какой набор букв
закодирован двоичной строкой 0110100011000

1) EBCEA      2) BDDEA     3)
BDCEA      4) EBAEA

 Решение (вариант 1,
декодирование с начала)
:

1)      здесь используется
неравномерное кодирование, при котором декодирование может быть неоднозначным,
то есть, заданному коду может соответствовать несколько разных исходных
сообщений

2)      попробуем
декодировать с начала цепочки, первой буквой может быть B или E, эти случаи
нужно рассматривать отдельно

3)      пусть первая буква
E с кодом 011,
тогда остается цепочка 0100011000

¾      для кода
0100011000 первой буквой может быть только
B с кодом 01, тогда
остается 00011000 ( начало исходной цепочки –
EB?)

¾      для кода 00011000
первой буквой может быть только
A с кодом 000, тогда остается 11000, а эта
цепочка не может быть разложена на заданные коды букв

¾      поэтому наше
предположение о том, что первая буква – E, неверно

4)      пусть первая буква
– B с кодом 01, тогда остается цепочка 10100011000

¾    для кода
10100011000 первой буквой может быть только D с кодом 10, тогда остается
100011000  (можно полагать, что начало исходной цепочки – BD?)

¾    для кода 100011000
первой буквой может быть только С с кодом 100, тогда остается 011000 (начало
исходной цепочки – BD
C?)

Несмотря
на то, что среди ответов есть единственная цепочка, которая начинается с
BDC, здесь нельзя
останавливаться, потому что «хвост» цепочки может «не сойтись»

¾    для кода 011000 на
первом месте может быть
B (код 01) или E (011); в первом случае
«хвост» 1000 нельзя разбить на заданные коды букв, а во втором – остается код
000 (буква А), поэтому исходная цепочка может быть декодирована как BDCEA

5)      правильный ответ –
3

Возможные
ловушки и проблемы
:

·    при
декодировании неравномерных кодов может быть очень много вариантов, их нужно
рассмотреть все; это требует серьезных усилий и можно легко запутаться

·    нельзя
останавливаться, не закончив декодирование до конца и не убедившись, что все
«сходится», на это обычно и рассчитаны неверные ответы

Решение
(вариант 2, декодирование с конца)
:

1)      для кода
0110100011000 последней буквой может быть только А (код 000),  тогда остается
цепочка 0110100011

2)      для 0110100011
последней может быть только буква E (011),  тогда остается цепочка 0110100

3)      для 0110100
последней может быть только буква
C (100),  тогда остается цепочка
0110

4)      для 0110 последней
может быть только буква
D (10),  тогда остается 01 – это код буквы
B

5)      таким образом,
получилась цепочка BDCEA

6)      правильный ответ –
3

Возможные
ловушки и проблемы
:

·    при
декодировании неравномерных кодов может быть очень много вариантов (здесь случайно
получилась единственно возможная цепочка), их нужно рассмотреть все; это
требует серьезных усилий и можно легко запутаться

·    нельзя
останавливаться, не закончив декодирование до конца и не убедившись, что все
«сходится», на это обычно и рассчитаны неверные ответы

Решение
(вариант 3, кодирование ответов)
:

1)      в данном случае
самое простое и надежное – просто закодировать все ответы, используя
приведенную таблицу кодов, а затем сравнить результаты с заданной цепочкой

2)      получим

1)
EBCEA – 01101100011000       2) BDDEA – 011010011000

3)
BDCEA – 0110100011000         4) EBAEA – 01101000011000

3)      сравнивая эти
цепочки с заданной, находим, что правильный ответ – 3.

Возможные
проблемы
:

·    сложно
сравнивать длинные двоичные последовательности, поскольку они однородны,
содержат много одинаковых нулей и единиц

Пример задания:

Для
передачи по каналу связи сообщения, состоящего только из букв А, Б, В, Г,
решили использовать неравномерный по длине код: A=0, Б=10, В=110. Как нужно
закодировать букву Г, чтобы длина кода была минимальной и допускалось
однозначное разбиение кодированного сообщения на буквы?

1) 1                  2) 1110            3) 111              4)
11

Решение
(вариант 1, метод подбора)
:

1)      рассмотрим все
варианты в порядке увеличения длины кода буквы Г

2)      начнем с Г=1; при
этом получается, что сообщение «10» может быть раскодировано двояко: как ГА или
Б, поэтому этот вариант не подходит

3)      следующий по длине
вариант – Г=11; в этом случае сообщение «110» может быть раскодировано как ГА
или В, поэтому этот вариант тоже не подходит

4)      третий вариант,
Г=111, дает однозначное раскодирование во всех сочетаниях букв, поэтому…

5)      … правильный ответ
– 3.

Возможные
проблемы
:

·    при переборе
можно ошибиться и «просмотреть» какой-нибудь вариант

Решение
(вариант 2, «умный» метод)
:

1)      для того, чтобы
сообщение, записанное с помощью неравномерного по длине кода, однозначно
раскодировалось, требуется, чтобы никакой код не был началом другого (более
длинного) кода; это условие называют условием Фано

2)      как и в первом
решении, рассматриваем варианты, начиная с самого короткого кода для буквы Г; в
нашем случае код Г=1 является началом кодов букв Б и В, поэтому условие Фано не
выполняется, такой код не подходит

3)      код Г=11 также
является началом другого кода (кода буквы В), поэтому это тоже ошибочный
вариант

4)      третий вариант
кода, Г=111, не является началом никакого уже известного кода; кроме того, ни
один уже имеющийся код не является началом кода 111; таким образом, условие
Фано выполняется

5)      поэтому правильный
ответ – 3.

Возможные
проблемы
:

·    нужно знать
условие Фано

Пример задания:

Черно-белое растровое изображение кодируется построчно,
начиная с левого верхнего угла и заканчивая в правом нижнем углу. При
кодировании 1 обозначает черный цвет, а 0 – белый.

Для компактности результат записали в
шестнадцатеричной системе счисления. Выберите правильную запись кода.

1) BD9AA5                2) BDA9B5    3)
BDA9D5    4) DB9DAB

Решение:

1)      «вытянем»
растровое изображение в цепочку: сначала первая (верхняя) строка, потом –
вторая, и т.д.:

1 строка

2 строка

3 строка

4 строка

2)      в этой полоске 24
ячейки, черные заполним единицами, а белые – нулями:

1

0

1

1

1

1

0

1

1

0

1

0

1

0

0

1

1

1

0

1

0

1

0

1

1 строка

2 строка

3 строка

4 строка

3)      поскольку каждая
цифра в шестнадцатеричной системе раскладывается ровно в 4 двоичных цифры,
разобьем полоску на тетрады – группы из четырех ячеек (в данном случае
все равно, откуда начинать разбивку, поскольку в полоске целое число тетрад –
6):

1

0

1

1

1

1

0

1

1

0

1

0

1

0

0

1

1

1

0

1

0

1

0

1

4)      переводя тетрады в
шестнадцатеричную систему, получаем последовательно цифры B (11), D(13),
A(10), 9, D(13) и 5, то есть,
цепочку
BDA9D5

5)      поэтому правильный
ответ – 3.

Возможные
проблемы
:

·    нужно уметь
быстро переводить тетрады в шестнадцатеричные цифры (в крайнем случае, это
можно сделать через десятичную систему)

Пример задания:

Для передачи чисел по каналу с помехами используется
код проверки четности. Каждая его цифра записывается в двоичном представлении,
с добавлением ведущих нулей до длины 4, и к получившейся последовательности
дописывается сумма её элементов по модулю
2 (например, если передаём
23, то получим последовательность 0010100110).
Определите, какое число передавалось по каналу в виде
01010100100111100011?

1) 59143                     2) 5971            3) 102153        
          4) 1
0273

Решение:

1)      сначала
разберемся, как закодированы числа в примере; очевидно, что используется код
равномерной длины; поскольку 2 знака кодируются 10 двоичными разрядами
(битами), на каждую цифру отводится 5 бит, то есть

2 → 00101 и
3 → 00110

2)      как следует из
условия, четыре первых бита в каждой последовательности – это двоичный код
цифры, а пятый бит (бит четности) используется для проверки и рассчитывается
как «сумма по модулю два», то есть остаток от деления суммы битов на 2; тогда

2 = 00102,
бит четности (0 + 0 + 1 + 0) mod 2 = 1    

3 = 00112,
бит четности (0 + 0 + 1 + 1) mod 2 = 0

3)      но бит четности
нам совсем не нужен, важно другое: пятый бит в каждой пятерке можно
отбросить
!

4)      разобъем заданную
последовательность на группы по 5 бит в каждой:

01010,
10010, 01111, 00011.

5)      отбросим пятый
(последний) бит в каждой группе:

0101,
1001, 0111, 0001.
это и есть двоичные коды передаваемых чисел:

01012
= 5, 10012 = 9, 01112 = 7, 00012 = 1.

6)      таким образом,
были переданы числа 5, 9, 7, 1 или число 5971.

7)      Ответ: 2.

Отчет

Отчет должен содержать:

¾     
наименование
работы;

¾     
цель
работы;

¾     
задание;

¾     
последовательность
выполнения работы;

¾     
ответы
на контрольные вопросы;

¾     
вывод
о проделанной работе.

Контрольные вопросы

1.
Где применяется кодирование информации?

2.
Дать определение понятие декодер?

3.
Какие существуют методы декодирования?

Критерии
оценивания практической работы:

5
 (отлично) –
работа
выполнена полностью и правильно, сделаны правильные выводы; работа выполнена по
плану с учетом техники безопасности.

4  (хорошо) – работа
выполнена правильно с учетом 2-3 несущественных ошибок исправленных
самостоятельно по требованию преподавателя.

3  (удовлетворительно) – работа выполнена правильно не менее чем на половину
или допущена существенная ошибка.

2
 (неудовлетворительно) –
допущены две (и более) существенные ошибки в ходе
работы, которые студент не может исправить даже по требованию преподавателя.

РАЗДЕЛ 4. ОСНОВЫ ТЕОРИИ
ЗАЩИТЫ ИНФОРМАЦИИ

УСТНЫЙ ОПРОС ПО ТЕМЕ

«СТАНДАРТЫ ШИФРОВАНИЯ ДАННЫХ. КРИПТОГРАФИЯ»

Вопросы:

1.     
Понятие криптографии,

2.     
Использование криптографии на
практике

3.     
Различные методы криптографии

4.     
Свойства шифрования

5.     
Методы шифрования

Критерии
оценки устного ответа:

«5
(отлично)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, литературным языком: ответ самостоятельный. 

«4
(хорошо)»
: ответ полный и правильный
на основании изученных теорий; материал изложен в определенной логической
последовательности, при этом допущены две-три несущественные ошибки,
исправленные по требованию преподавателя. 

«3
(удовлетворительно)»
: ответ полный,
но при этом допущена существенная ошибка, или неполный, несвязный. 

«2
(неудовлетворительно)»
: при ответе
обнаружено непонимание студентом основного содержания учебного материала или
допущены существенные ошибки, которые студент не смог исправить при наводящих вопросах
преподавателя.

ТЕСТ НА ТЕМУ «КРИПТОГРАФИЯ»

  1. Шифрование – это…

А) способ изменения сообщения
или другого документа, обеспечивающее искажение его содержимого

Б) совокупность тем или иным способом структурированных данных и комплексом
аппаратно-программных средств

В)
удобная среда для вычисления конечного пользователя

  1. Кодирование – это…

А) преобразование обычного,
понятного текста в код

Б) преобразование
В) написание программы

  1. Что требуется для восстановления зашифрованного текста

А) ключ
Б) матрица
В) вектор

  1. Когда появилось шифрование

А) четыре тысячи лет назад
Б) две тысячи лет назад
В) пять тысяч лет назад

  1. Первым известным применением шифра считается

А) египетский текст
Б) русский
В) нет правильного ответа

  1. Какую секретную информацию хранит Windows

А) пароли для доступа к
сетевым ресурсам
Б) пароли для доступа в Интернет
В) сертификаты для доступа к сетевым ресурсам и зашифрованным данным на самом
компьютере

  1. Алфавит – это…

А) конечное множество
используемых для кодирования информации знаков

Б) буквы текста
В)  нет правильного ответа

  1. Текст – это…

А) упорядоченный набор из
элементов алфавита

Б) конечное множество используемых для кодирования информации знаков
В) все правильные

  1. Примеры алфавитов:

А) Z256
– символы, входящие в стандартные коды
ASCII и
КОИ-8
Б) восьмеричный и шестнадцатеричный алфавиты
В) АЕЕ

  1. Шифрование – это…

А) преобразовательный процесс
исходного текста в зашифрованный

Б) упорядоченный набор из элементов алфавита
В) нет правильного ответа

  1. Дешифрование – это…

А) на основе ключа шифрованный
текст преобразуется в исходный

Б) пароли для доступа к сетевым ресурсам
В) сертификаты для доступа к сетевым ресурсам и зашифрованным данным на
самом компьютере

  1. Криптографическая система представляет собой…

А) семейство Т преобразований
открытого текста, члены его семейства индексируются символом
k
Б) программу
В) систему

  1. Пространство ключей k – это…

А) набор возможных значений
ключа

Б) длина ключа
В) нет правильного ответа

  1. Криптосистемы разделяются на:

А) симметричные
Б) ассиметричные
В) с открытым ключом

  1. Сколько используется ключей в симметричных криптосистемах
    для шифрования и дешифрования

А) 1
Б) 2
В) 3

  1. Сколь ключей используется в системах с открытым ключом

А) 2
Б) 3
В) 1

  1. Какие ключи используются в системах с открытым ключом

А) открытый
Б) закрытый
В) нет правильного ответа

  1. Как связаны ключи друг с другом в системе с открытым
    ключом

А) математически
Б) логически
В) алгоритмически

  1. Электронной подписью называется…

А) присоединяемое к тексту его
криптографическое преобразование
Б) текст
В) зашифрованный текст

  1. Криптостойкость – это…

А) характеристика шрифта,
определяющая его стойкость к дешифрованию без знания ключа

Б) свойство гаммы
В) все ответы верны

  1. Показатели криптостойкости:

А) количество всех возможных
ключей
Б) среднее время, необходимое для криптоанализа

В) количество символов в ключе

  1. Для современных криптографических систем защиты информации
    сформулированы следующие общепринятые требования:

А) знание алгоритма шифрования
не должно влиять на надежность защиты
Б) структурные элементы алгоритма шифрования должны быть неизменными
В) не должно быть простых и легко устанавливаемых зависимостью между ключами
последовательно используемыми в процессе шифрования

  1. Для современных криптографических систем защиты информации
    сформулированы следующие общепринятые требования:

А) длина шифрованного текста
должна быть равной лине исходного текста
Б) зашифрованное сообщение должно поддаваться чтению только при наличии ключа
В) нет правильного ответа

  1. Основные современные методы шифрования:

А) алгоритма гаммирования
Б) алгоритмы сложных математических преобразований
В) алгоритм перестановки

  1. Символы исходного текста складываются с символами некой
    случайной последовательности – это…

А) алгоритм гаммирования
Б) алгоритм перестановки
В) алгоритм аналитических преобразований

  1. Символы оригинального текста меняются местами по
    определенному принципу, являющемуся секретным ключом – это…

А) алгоритм перестановки
Б) алгоритм подстановки
В) алгоритм гаммрования

  1. Самой простой разновидность подстановки является

А) простая замена
Б) перестановка
В) простая перестановка

  1. Из скольки последовательностей состоит расшифровка текста
    по таблице Вижинера

А) 3
Б) 4
В) 5

  1. Какие таблицы Вижинера можно использовать для повышения
    стойкости шифрования

А) во всех (кроме первой) строках
таблицы буквы располагаются в произвольном порядке
Б) в качестве ключа используется случайность последовательных чисел

В) нет правильного ответа

  1. В чем суть метода перестановки

А) символы шифруемого текста
переставляются по определенным правилам внутри шифруемого блока символов
Б) замена алфавита
В) все правильные

  1. Сколько существует способов гаммирования

А) 2
Б) 5
В) 3

  1. Чем определяется стойкость шифрования методом гаммирования

А) свойством гаммы
Б) длина ключа
В) нет правильного ответа

  1. Что может использоваться в качестве гаммы

А) любая последовательность
случайных символов

Б) число
В) все ответы верны

  1. Какой метод используется при шифровании с помощью
    аналитических преобразований

А) алгебры матриц
Б) матрица
В) факториал

  1. Что используется в качестве ключа при шифровании с помощью
    аналитических преобразований

А) матрица А
Б) вектор
В) обратная матрица

  1. Как осуществляется дешифрование текста при аналитических
    преобразованиях

А) умножение матрицы на вектор
Б) деление матрицы на вектор
В) перемножение матриц

  1. Комбинации комбинированного метода шифрования:

А) подстановка+гаммирование
Б) гаммирование+гаммирование
В) подстановка+перестановка

  1. Для чего использовался DES-алгоритм
    из-за небольшого размер ключа

А) закрытия коммерческой
информации

Б) шифрования секретной информации
В) нет правильного ответа

  1. Основные области применения DES-алгоритма

А) хранение данных на
компьютере
Б) электронная система платежей
В) аутентификация сообщений

  1. Когда был введен в действие ГОСТ 28147-89

А) 1990
Б) 1890
В) 1995

  1. Достоинства ГОСТа 28147-89

А) высокая стойкость
Б) цена
В) гибкость

  1. Чем отличается блок-схема алгоритма ГОСТ от блок-схемы DES-алгоритма

А) отсутствием начальной
перестановки и числом циклов шифрования

Б) длиной ключа
В) методом шифрования

  1. Ключ алгоритма ГОСТ – это…

А) массив, состоящий из
32-мерных векторов

Б) последовательность чисел
В) алфавит

  1. Какой ключ используется в шифре ГОСТ

А) 256-битовый
Б) 246-битовый
В) 356-битовый

  1. Примеры программных шифраторов:

А) PGP
Б)
BestCrypt 6.04
В) PTR

  1. Плюсы программных шифраторов:

А) цена
Б) гибкость

В) быстродействие

  1. УКЗД – это…

А) устройство
криптографической защиты данных

Б) устройство криптографической заданности данных
В) нет правильного ответа

  1. Блок управления – это…

А) основной модуль шифратора,
который «заведует» работой всех остальных

Б) устройство криптографической заданности данных
В) проходной шифратор

  1. Вычислитель – это…

А) набор регистров,
сумматоров, блоков подстановки, связанных собой шинами передачи данных

Б) файлы, использующие различные методы  кэширования
В) язык описания данных

  1. Блок управления – это…

А) аппаратно реализованная
программа, управляющая вычислителем
Б) язык описания данных
В) процесс определения отвечает на текущее состояние разработки требованиям
данного этапа

  1. Какой шифратор можно использовать для защиты передаваемой
    в Сеть информации

А) обычный шифратор
Б) проходной шифратор

В) табличный шифратор

  1. Египетский текст дотировался примерно…

А) 1900
г
. д. н.э.
Б) 1890 г. д. н.э.
В) 1990 г.

  1. Один из самых известных методов шифрования носит имя…

А) Цезаря
Б) Гейца
В) Вижинера

  1. Из каких структурных единиц состоит шифропроцессор

А) вычислитель
Б) блок управления
В) буфер ввода-вывода

  1. Криптографические действия выполняет…

А) вычислитель
Б) буфер ввода-вывода
В) блок управления

  1. Наиболее известные разновидности полиалфавита:

А) одноконтурные
Б) многоконтурные
В) поликрнтурные

  1. Зашифрованный файл, хранящийся на логическом диске,
    который подключается к системе как еще один логический диск – это…

А) виртуальный контейнер
Б) файл
В) программа

  1. Устройство, дающее статически случайный шум – это…

А) генератор случайных чисел
Б) контроль ввода на компьютер
В) УКЗД

  1. Какие дополнительные порты ввода-вывода содержит УКЗД:

А) COM
Б)
USB
В) FGR

  1. Сколько существует перестановок в стандарте DES

А) 3
Б) 4
В) 2

  1. Какие перестановки существуют в стандарте DES

А) простые
Б) расширенные
В) сокращенные

  1. Как называется модификация DESa

А) Triple Des
Б) М-506
В) Deh

  1. Шифрование – это…

А)
способ изменения сообщения или другого документа, обеспечивающее искажение
его содержимого

Б) совокупность тем или иным способом структурированных данных и комплексом
аппаратно-программных средств

В)
удобная среда для вычисления конечного пользователя

  1. Кодирование – это…

А)
преобразование обычного, понятного текста в код
Б) преобразование
В) написание программы

  1. Что требуется для
    восстановления зашифрованного текста

А)
ключ
Б) матрица
В) вектор

  1. Когда появилось шифрование

А)
четыре тысячи лет назад
Б) две тысячи лет назад
В) пять тысяч лет назад

  1. Первым известным
    применением шифра считается

А)
египетский текст
Б) русский
В) нет правильного ответа

  1. Какую секретную информацию
    хранит
    Windows

А)
пароли для доступа к сетевым ресурсам
Б) пароли для доступа в Интернет
В) сертификаты для доступа к сетевым ресурсам и зашифрованным данным на самом
компьютере

  1. Алфавит – это…

А)
конечное множество используемых для кодирования информации знаков
Б) буквы текста
В)  нет правильного ответа

  1. Текст – это…

А)
упорядоченный набор из элементов алфавита
Б) конечное множество используемых для кодирования информации знаков
В) все правильные

  1. Примеры алфавитов:

А)
Z256
– символы, входящие в стандартные коды
ASCII и
КОИ-8
Б) восьмеричный и шестнадцатеричный алфавиты
В) АЕЕ

  1. Шифрование – это…

А)
преобразовательный процесс исходного текста в зашифрованный
Б) упорядоченный набор из элементов алфавита
В) нет правильного ответа

  1. Дешифрование – это…

А)
на основе ключа шифрованный текст преобразуется в исходный
Б) пароли для доступа к сетевым ресурсам
В) сертификаты для доступа к сетевым ресурсам и зашифрованным данным на
самом компьютере

  1. Криптографическая система
    представляет собой…

А)
семейство Т преобразований открытого текста, члены его семейства
индексируются символом
k
Б) программу
В) систему

  1. Пространство ключей k
    – это…

А)
набор возможных значений ключа
Б) длина ключа
В) нет правильного ответа

  1. Криптосистемы разделяются
    на:

А)
симметричные
Б) ассиметричные
В) с открытым ключом

  1. Сколько используется ключей
    в симметричных криптосистемах для шифрования и дешифрования

А)
1
Б) 2
В) 3

  1. Сколь ключей используется в
    системах с открытым ключом

А)
2
Б) 3
В) 1

  1. Какие ключи используются в
    системах с открытым ключом

А)
открытый
Б) закрытый
В) нет правильного ответа

  1. Как связаны ключи друг с
    другом в системе с открытым ключом

А)
математически
Б) логически
В) алгоритмически

  1. Электронной подписью
    называется…

А)
присоединяемое к тексту его криптографическое преобразование
Б) текст
В) зашифрованный текст

  1. Криптостойкость – это…

А)
характеристика шрифта, определяющая его стойкость к дешифрованию без знания
ключа

Б)
свойство гаммы
В) все ответы верны

  1. Показатели криптостойкости:

А)
количество всех возможных ключей
Б) среднее время, необходимое для криптоанализа

В) количество символов в ключе

  1. Для современных
    криптографических систем защиты информации сформулированы следующие
    общепринятые требования:

А)
знание алгоритма шифрования не должно влиять на надежность защиты
Б) структурные элементы алгоритма шифрования должны быть неизменными
В) не должно быть простых и легко устанавливаемых зависимостью между ключами
последовательно используемыми в процессе шифрования

  1. Для современных
    криптографических систем защиты информации сформулированы следующие
    общепринятые требования:

А)
длина шифрованного текста должна быть равной лине исходного текста
Б) зашифрованное сообщение должно поддаваться чтению только при наличии ключа
В) нет правильного ответа

  1. Основные современные методы
    шифрования:

А)
алгоритма гаммирования
Б) алгоритмы сложных математических преобразований
В) алгоритм перестановки

  1. Символы исходного текста
    складываются с символами некой случайной последовательности – это…

А)
алгоритм гаммирования
Б) алгоритм перестановки
В) алгоритм аналитических преобразований

  1. Символы оригинального
    текста меняются местами по определенному принципу, являющемуся секретным
    ключом – это…

А)
алгоритм перестановки
Б) алгоритм подстановки
В) алгоритм гаммрования

  1. Самой простой разновидность
    подстановки является

А)
простая замена
Б) перестановка
В) простая перестановка

  1. Из скольки
    последовательностей состоит расшифровка текста по таблице Вижинера

А)
3
Б) 4
В) 5

  1. Какие таблицы Вижинера
    можно использовать для повышения стойкости шифрования

А)
во всех (кроме первой) строках таблицы буквы располагаются в произвольном
порядке
Б) в качестве ключа используется случайность последовательных чисел

В) нет правильного ответа

  1. В чем суть метода
    перестановки

А)
символы шифруемого текста переставляются по определенным правилам внутри
шифруемого блока символов
Б) замена алфавита
В) все правильные

  1. Сколько существует способов
    гаммирования

А)
2
Б) 5
В) 3

  1. Чем определяется стойкость
    шифрования методом гаммирования

А)
свойством гаммы
Б) длина ключа
В) нет правильного ответа

  1. Что может использоваться в
    качестве гаммы

А)
любая последовательность случайных символов
Б) число
В) все ответы верны

  1. Какой метод используется
    при шифровании с помощью аналитических преобразований

А)
алгебры матриц
Б) матрица
В) факториал

  1. Что используется в качестве
    ключа при шифровании с помощью аналитических преобразований

А)
матрица А
Б) вектор
В) обратная матрица

  1. Как осуществляется
    дешифрование текста при аналитических преобразованиях

А)
умножение матрицы на вектор
Б) деление матрицы на вектор
В) перемножение матриц

  1. Комбинации комбинированного
    метода шифрования:

А)
подстановка+гаммирование
Б) гаммирование+гаммирование
В) подстановка+перестановка

  1. Для чего использовался DES-алгоритм
    из-за небольшого размер ключа

А)
закрытия коммерческой информации
Б) шифрования секретной информации
В) нет правильного ответа

  1. Основные области применения
    DES-алгоритма

А)
хранение данных на компьютере
Б) электронная система платежей
В) аутентификация сообщений

  1. Когда был введен в действие
    ГОСТ 28147-89

А)
1990
Б) 1890
В) 1995

  1. Достоинства ГОСТа 28147-89

А)
высокая стойкость
Б) цена
В) гибкость

  1. Чем отличается блок-схема
    алгоритма ГОСТ от блок-схемы
    DES-алгоритма

А)
отсутствием начальной перестановки и числом циклов шифрования
Б) длиной ключа
В) методом шифрования

  1. Ключ алгоритма ГОСТ – это…

А)
массив, состоящий из 32-мерных векторов
Б) последовательность чисел
В) алфавит

  1. Какой ключ используется в
    шифре ГОСТ

А)
256-битовый
Б) 246-битовый
В) 356-битовый

  1. Примеры программных
    шифраторов:

А)
PGP
Б)
BestCrypt 6.04
В) PTR

  1. Плюсы программных
    шифраторов:

А)
цена
Б) гибкость

В) быстродействие

  1. УКЗД – это…

А)
устройство криптографической защиты данных
Б) устройство криптографической заданности данных
В) нет правильного ответа

  1. Блок управления – это…

А)
основной модуль шифратора, который «заведует» работой всех остальных
Б) устройство криптографической заданности данных
В) проходной шифратор

  1. Вычислитель – это…

А)
набор регистров, сумматоров, блоков подстановки, связанных собой шинами
передачи данных

Б) файлы, использующие различные методы  кэширования
В) язык описания данных

  1. Блок управления – это…

А)
аппаратно реализованная программа, управляющая вычислителем
Б) язык описания данных
В) процесс определения отвечает на текущее состояние разработки требованиям
данного этапа

  1. Какой шифратор можно
    использовать для защиты передаваемой в Сеть информации

А)
обычный шифратор
Б) проходной шифратор

В) табличный шифратор

  1. Египетский текст
    дотировался примерно…

А)
1900 г. д. н.э.
Б) 1890 г. д. н.э.
В) 1990 г.

  1. Один из самых известных
    методов шифрования носит имя…

А)
Цезаря
Б) Гейца
В) Вижинера

  1. Из каких структурных единиц
    состоит шифропроцессор

А)
вычислитель
Б) блок управления
В) буфер ввода-вывода

  1. Криптографические действия
    выполняет…

А)
вычислитель
Б) буфер ввода-вывода
В) блок управления

  1. Наиболее известные
    разновидности полиалфавита:

А)
одноконтурные
Б) многоконтурные
В) поликрнтурные

  1. Зашифрованный файл,
    хранящийся на логическом диске, который подключается к системе как еще
    один логический диск – это…

А)
виртуальный контейнер
Б) файл
В) программа

  1. Устройство, дающее
    статически случайный шум – это…

А)
генератор случайных чисел
Б) контроль ввода на компьютер
В) УКЗД

  1. Какие дополнительные порты
    ввода-вывода содержит УКЗД:

А)
COM
Б)
USB
В)
FGR

  1. Сколько существует
    перестановок в стандарте
    DES

А)
3
Б) 4
В) 2

  1. Какие перестановки
    существуют в стандарте
    DES

А)
простые
Б) расширенные
В) сокращенные

  1. Как называется модификация DESa

А) Triple Des
Б) М-506
В) Deh

Критерии
оценивания теста:

5
(отлично) –
правильно выполнены 115-124
заданий.

4
(хорошо) –
правильно выполнены 99-114
задания.

3
(удовлетворительно) –
правильно
выполнены 75-98 заданий.

2
(неудовлетворительно) –
правильно
выполнены менее 75 заданий.

ПРАКТИЧЕСКАЯ
РАБОТА

«ПРАКТИЧЕСКОЕ
ПРИМЕНЕНИЕ КРИПТОГРАФИИ»

Цель работы: исследование простейших методов криптографической
зашиты информации.

Программное
обеспечение: операционная система, калькулятор.

Теоретические основы

Под конфиденциальностью понимают
невозможность получения информации из преобразованного массива без знания
дополнительной информации (ключа).

Аутентичность информации состоит в подлинности авторства и
целостности.

Криптоанализ объединяет математические методы нарушения
конфиденциальности и аутентичности информации без знания ключей.

Алфавит конечное
множество используемых для кодирования информации знаков.

Текст упорядоченный набор из элементов алфавита. В
качестве примеров алфавитов можно привести следующие:

алфавит Z33 — 32 буквы
русского алфавита (исключая «ё») и пробел;

алфавит Z256 — символы,
входящие в стандартные коды ASCII и КОИ-8;

двоичный алфавит — Z2 =
{0, 1};

восьмеричный или шестнадцатеричный
алфавит

Под шифром понимается
совокупность обратимых преобразований множества открытых данных на множество
зашифрованных данных, заданных алгоритмом криптографического преобразования. В
шифре всегда различают два элемента: алгоритм и ключ. Алгоритм позволяет
использовать сравнительно короткий ключ для шифрования сколь угодно большого
текста.

Криптографическая система, или шифр представляет собой семейство Т
обратимых преобразований открытого текста в шифрованный. Членам этого
семейства можно взаимно однозначно сопоставить число k,
называемое ключом. Преобразование Тk определяется
соответствующим алгоритмом и значением ключа k.

Ключ — конкретное секретное состояние некоторых параметров
алгоритма криптографического преобразования данных, обеспечивающее выбор одного
варианта из совокупности всевозможных для данного алгоритма. Секретность ключа
должна обеспечивать невозможность восстановления исходного текста по
шифрованному.

Пространство ключей K
это набор возможных значений ключа.

Обычно ключ представляет собой
последовательный ряд букв алфавита. Следует отличать понятия «ключ» и
«пароль». Пароль также является секретной
последовательностью букв алфавита, однако используется не для шифрования (как
ключ), а для аутентификации субъектов.

Электронной (цифровой) подписью называется присоединяемое к тексту его криптографическое
преобразование, которое позволяет при получении текста другим пользователем
проверить авторство и целостность сообщения.

Зашифрованием данных называется процесс преобразования открытых
данных в зашифрованные с помощью шифра, а расшифрованием данных —
процесс преобразования закрытых данных в открытые с помощью шифра.

Дешифрованием называется процесс преобразования закрытых данных в
открытые при неизвестном ключе и, возможно, неизвестном алгоритме, т.е.
методами криптоанализа.

Шифрованием называется процесс зашифрования или расшифрования данных.
Также термин шифрование используется как синоним зашифрования. Однако неверно в
качестве синонима шифрования использовать термин «кодирование» (а
вместо «шифра» — «код»), так как под кодированием обычно
понимают представление информации в виде знаков (букв алфавита).

Криптостойкостью называется характеристика шифра, определяющая его
стойкость к дешифрованию. Обычно эта характеристика определяется периодом
времени, необходимым для дешифрования.

Криптология — это наука о преобразовании
информации для обеспечения ее секретности, состоящая из двух ветвей:
криптографии и криптоанализа.

Криптоанализ — наука (и практика ее
применения) о методах и способах вскрытия шифров.

Криптография — наука о способах
преобразования (шифрования) информации с целью ее защиты от незаконных
пользователей. Исторически первой задачей криптографии была защита передаваемых
текстовых сообщений от несанкционированного ознакомления с их содержанием,
известного только отправителю и получателю, все методы шифрования являются лишь
развитием этой философской идеи. С усложнением информационных взаимодействий в
человеческом обществе возникли и продолжают возникать новые задачи по их
защите, некоторые из них были решены в рамках криптографии, что потребовало
развития новых подходов и методов.

Шифры простой замены

Система шифрования Цезаря — частный случай шифра простой замены. Метод основан
на замене каждой буквы сообщения на другую букву того же алфавита, путем
смещения от исходной буквы на K букв.

Известная
фраза Юлия Цезаря

VENI VI D I VICI,
где

A

B

C

D

E

F

G

H

I

G

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

пришел,
увидел, победил, зашифрованная с помощью данного метода, преобразуется в

SBKF
SFAF SFZF

при смещении на 4 символа влево.

Греческим писателем Полибием за 100 лет до н.э. был изобретен
так называемый полибианский квадрат размером 5*5, заполненный алфавитом
в случайном порядке. Греческий алфавит имеет 24 буквы, а 25-м символом является
пробел. Для шифрования на квадрате находили букву текста и записывали в
зашифрованное сообщение букву, расположенную ниже ее в том же столбце. Если
буква оказывалась в нижней строке таблицы, то брали верхнюю букву из того же
столбца.

M

T

L

E

X

A

K

F

Q

Y

N

B

R

O

W

C

J

H

D

P

U

I

S

G

V

Схема
шифрования Вижинера. Таблица Вижинера представляет собой квадратную матрицу с
n2 элементами, где n — число
символов используемого алфавита. На рисунке показана верхняя часть таблицы
Вижинера для кириллицы. Каждая строка получена циклическим сдвигом алфавита на
символ. Для шифрования выбирается буквенный ключ, в соответствии с которым
формируется рабочая матрица шифрования.

а

б

в

г

д

е

ё

ж

з

и

й

к

л

м

н

о

п

р

с

т

у

ф

х

ц

ч

ш

щ

ъ

ы

ь

э

ю

я

б

в

г

д

е

ё

ж

з

и

й

к

л

м

н

о

п

р

с

т

у

ф

х

ц

ч

ш

щ

ъ

ы

ь

э

ю

я

а

в

г

д

е

ё

ж

з

и

й

к

л

м

н

о

п

р

с

т

у

ф

х

ц

ч

ш

щ

ъ

ы

ь

э

ю

я

а

б

г

д

е

ё

ж

з

и

й

к

л

м

н

о

п

р

с

т

у

ф

х

ц

ч

ш

щ

ъ

ы

ь

э

ю

я

а

б

в

д

е

ё

ж

з

и

й

к

л

м

н

о

п

р

с

т

у

ф

х

ц

ч

ш

щ

ъ

ы

ь

э

ю

я

а

б

в

г

е

ё

ж

з

и

й

к

л

м

н

о

п

р

с

т

у

ф

х

ц

ч

ш

щ

ъ

ы

ь

э

ю

я

а

б

в

г

д

И т.д. до 33-ей строки..                                                                                     

Таблица Вижинера

Осуществляется
это следующим образом. Из полной таблицы выбирается первая строка и те строки,
первые буквы которых соответствуют буквам ключа. Первой размещается первая
строка, а под нею — строки, соответствующие буквам ключа в порядке следования
этих букв в ключе шифрования.  Пример  такой  рабочей  матрицы для ключа
«книга» .

Процесс
шифрования осуществляется следующим образом:

1.
под каждой буквой шифруемого текста записываются буквы ключа. Ключ при этом
повторяется необходимое число раз.

2.
каждая буква шифруемого текста заменяется по подматрице буквами находящимися на
пересечении линий, соединяющих буквы шифруемого текста   в первой строке
подматрицы и находящимися под ними букв ключа.

3.
полученный текст может разбиваться на группы по несколько знаков.

Пусть,
например, требуется зашифровать сообщение: максимально допустимой ценой
является пятьсот руб. за штуку
. В соответствии с первым правилом записываем
под буквами шифруемого текста буквы ключа. Получаем: 

максимально 
допустимой   ценой  является пятьсот руб. за штуку

книгакнигак 
нигакнигак   нигак  нигакниг акнигак ниг  ак нигак

а

б

в

г

д

е

ё

ж

з

и

й

к

л

м

н

о

п

р

с

т

у

ф

х

ц

ч

ш

щ

ъ

ы

ь

э

ю

я

к

л

м

н

о

п

р

с

т

у

ф

х

ц

ч

ш

щ

ъ

ы

ь

э

ю

я

а

б

в

г

д

е

ё

ж

з

и

й

н

о

п

р

с

т

у

ф

х

ц

ч

ш

щ

ъ

ы

ь

э

ю

я

а

б

в

г

д

е

ё

ж

з

и

й

к

л

м

и

й

к

л

м

н

о

п

р

с

т

у

ф

х

ц

ч

ш

щ

ъ

ы

ь

э

ю

я

а

б

в

г

д

е

ё

ж

з

г

д

е

ё

ж

з

и

й

к

л

м

н

о

п

р

с

т

у

ф

х

ц

ч

ш

щ

ъ

ы

ь

э

ю

я

а

б

в

а

б

в

г

д

е

ё

ж

з

и

й

к

л

м

н

о

п

р

с

т

у

ф

х

ц

ч

ш

щ

ъ

ы

ь

э

ю

я

Дальше
осуществляется непосредственное шифрование в соответствии со вторым правилом, а
именно: берем первую букву шифруемого текста (М) и соответствующую ей букву
ключа (К); по букве шифруемого текста (М) входим в рабочую матрицу шифрования и
выбираем под ней букву, расположенную в строке, соответствующей букве ключа
(К),— в нашем примере такой буквой является Ч; выбранную таким образом букву
помещаем в зашифрованный текст. Эта процедура циклически повторяется до
зашифрования всего текста.

Эксперименты
показали, что при использовании такого метода статистические характеристики
исходного текста практически не проявляются в зашифрованном сообщении. Нетрудно
видеть, что замена по таблице Вижинера эквивалентна простой замене с
циклическим изменением алфавита, т.е. здесь мы имеем полиалфавитную
подстановку, причем число используемых алфавитов определяется числом букв в
слове ключа. Поэтому стойкость такой замены определяется произведением стойкости
прямой замены на число используемых алфавитов, т.е. число букв в ключе.

Расшифровка
текста производится в следующей последовательности:

1.        
над буквами зашифрованного текста
последовательно надписываются буквы         ключа, причем ключ повторяется
необходимое число раз.

2.        
в строке подматрицы Вижинера,
соответствующей букве ключа отыскивается буква, соответствующая  знаку 
зашифрованного  текста.  Находящаяся   под ней буква первой строки подматрицы и
будет буквой исходного  текста.

3.        
полученный текст группируется в
слова по смыслу.

    
Нетрудно видеть, что процедуры как прямого, так и обратного преобразования
являются строго формальными, что позволяет реализовать их алгоритмически. Более
того, обе процедуры легко реализуются по одному и тому же алгоритму.

Одним
из недостатков шифрования по таблице Вижинера является то, что при небольшой
длине ключа надежность шифрования остается невысокой, а формирование длинных
ключей сопряжено с трудностями.

Нецелесообразно
выбирать ключи с повторяющимися буквами, так как при этом стойкость шифра не
возрастает. В то же время ключ должен легко запоминаться, чтобы его можно было
не записывать. Последовательность же букв не имеющих смысла, запомнить трудно.

С
целью повышения стойкости шифрования можно использовать усовершенствованные
варианты таблицы Вижинера. Приведем только некоторые из них:

·          
во всех (кроме первой) строках
таблицы буквы располагаются в произвольном порядке.

·          
В качестве ключа используется
случайность последовательных чисел. Из таблицы Вижинера выбираются десять произвольных
строк, которые кодируются натуральными числами от 0 до 10. Эти строки
используются в соответствии с чередованием цифр в выбранном ключе.

 Известны также и многие другие модификации метода.

Алгоритм перестановки

Этот метод заключается в том, что символы
шифруемого текста переставляются по определенным правилам внутри шифруемого
блока символов. Рассмотрим некоторые разновидности этого метода, которые могут
быть использованы в автоматизированных системах.

Самая простая перестановка — написать исходный
текст задом наперед и одновременно разбить шифрограмму на пятерки букв.
Например, из фразы

     ПУСТЬ БУДЕТ ТАК, КАК МЫ ХОТЕЛИ.

получится такой шифротекст:

     ИЛЕТО ХЫМКА ККАТТ ЕДУБЪ ТСУП

В последней группе (пятерке) не хватает одной
буквы. Значит, прежде чем шифровать исходное выражение, следует его дополнить
незначащей буквой

(например, О) до числа, кратного пяти:

     ПУСТЬ-БУДЕТ-ТАККА-КМЫХО-ТЕЛИО.

Тогда шифрограмма, несмотря на столь незначительные
изменения, будет выглядеть по-другому:

      ОИЛЕТ ОХЫМК АККАТ ТЕДУБ ЬТСУП

Кажется, ничего сложного, но при расшифровке
проявляются серьезные неудобства.

Во время Гражданской войны в США в ходу был такой
шифр: исходную фразу писали в несколько строк. Например, по пятнадцать букв в
каждой (с заполнением последней строки незначащими буквами).

     П  У  С  Т  Ь  Б  У  Д  Е  Т  Т  А  К  К  А

     К  М  Ы  Х  О  Т  Е  Л  И  К  Л  М  Н  О  П

После этого вертикальные столбцы по порядку писали в строку с разбивкой
на пятерки букв:

    ПКУМС  ЫТХЬО  БТУЕД  ЛЕИТК  ТЛАМК  НКОАП

Если строки укоротить, а количество строк
увеличить, то получится прямоугольник-решетка, в который можно записывать
исходный текст. Но тут уже потребуется предварительная договоренность между
адресатом и отправителем посланий, поскольку сама решетка может быть различной
длины-высоты, записывать к нее можно по строкам, по столбцам, по спирали туда
или по спирали обратно, можно писать и по  диагоналями, а для шифрования можно
брать тоже различные направления.

Шифры сложной замены

Шифр Гронсфельда состоит в модификации шифра Цезаря числовым ключом. Для этого под
буквами сообщения записывают цифры числового ключа. Если ключ короче сообщения,
то его запись циклически повторяют. Зашифрованное сообщение получают примерно
также, как в шифре Цезаря, но используют не одно жестко заданное смещение а
фрагменты ключа.

Пусть
в качестве ключа используется группа из трех цифр – 314, тогда сообщение

С
О В Е Р Ш Е Н Н О С Е К Р Е Т Н О

3
1 4 3 1 4 3 1 4 3 1 4 3 1 4 3 1 4 

 

Ф
П Ё С Ь З О С С А Х З Л Ф З У С С

В шифрах
многоалфавитной замены
для шифрования каждого символа исходного сообщения
применяется свой шифр простой замены (свой алфавит).

АБВГДЕЁЖЗИКЛМНОПРСТУФХЧШЩЪЫЬЭЮЯ_

А

АБВГДЕЁЖЗИКЛМНОПРСТУФХЧШЩЪЫЬЭЮЯ_

Б

_АБВГДЕЁЖЗИКЛМНОПРСТУФХЧШЩЪЫЬЭЮЯ

В

Я_АБВГДЕЁЖЗИКЛМНОПРСТУФХЧШЩЪЫЬЭЮ

Г

ЮЯ_АБВГДЕЁЖЗИКЛМНОПРСТУФХЧШЩЪЫЬЭ

.

…………

Я

ВГДЕЁЖЗИКЛМНОПРСТУФХЧШЩЪЫЬЭЮЯ_АБ

_

БВГДЕЁЖЗИКЛМНОПРСТУФХЧШЩЪЫЬЭЮЯ_А

Каждая строка в этой таблице соответствует одному
шифру замены аналогично шифру Цезаря для алфавита, дополненного пробелом. При
шифровании сообщения его выписывают в строку, а под ним ключ. Если ключ
оказался короче сообщения, то его циклически повторяют. Зашифрованное сообщение
получают, находя символ в колонке таблицы по букве текста и строке,
соответствующей букве ключа. Например, используя ключ АГАВА, из сообщения
ПРИЕЗЖАЮ ШЕСТОГО получаем следующую шифровку:

ПРИЕЗЖАЮ_ШЕСТОГО

АГАВААГАВААГАВАА

ПОИГЗЖЮЮЮШЕПТНГО

Такая
операция соответствует сложению кодов ASCII символов сообщения и ключа по
модулю 256.

Практическое задание

Придумайте
3 фразы, каждая минимум из 7 слов. Реализуйте шифрование этой фразы всеми
перечисленными видами шифрования.

 «Практика
криптографической защиты информации»

Криптография
наука о методах
преобразования информации с целью ее защиты от незаконных пользователей.

Стеганография
— набор средств и
методов сокрытия факта передачи информации.

Некоторые
методы стеганографии:

1.     
В древности голову раба брили, на
коже головы писали сообщение и, после отрастания волос, раба отправляли к
адресанту.

2.     
Скрытое письмо между строк:
молоком, апельсиновым (или лимонным) соком, другими химическими веществами.

3.     
«Микроточка».
Сообщение с помощью современной технологии записывается на очень маленький
носитель («микроточку»), которая пересылается адресату, например, под
обычной маркой.

4.     
Акростих — первые
буквы слов стихотворения несут информацию:

Добрый удод наелся ягод,

Умный удод наелся на год.

Наелся удод и песни поет.

Ягод наелся удод.

Задание 1: Придумать акростих, в котором скрыто ваше имя.

5.     
Например, каждое
четвертое слово в посылаемом сообщении несет информацию (остальные слова ничего
не значат). Пример: «Тридцать первого августа встреча судебного
совета округа состоялась. Подтвердите дату следующего как можно
скорее. Участники договорились собраться там же. Борис

Задание 2: Придумать подобное послание.

Разновидности шифров

1.     
Шифр замены. Каждая
буква заменяется на определенный символ или последовательность символов.
Пример: «Пляшущие человечки» Конан Дойля.

2.     
Шифр перестановки. Буквы
в передаваемом сообщении меняются местами в соответствии с определенным
правилом. Примеры: МАМА — АМАМ. КРИПТОГРАФИЯ — ИПКРГРТОИЯАФ. (ИП КР
ГР ТО ИЯ АФ)

3.     
Книжный шифр. В
шифрованном тексте каждое слово заменено на пару чисел номер страницы в книге и
номер этого слова на странице. (т.е. текст выглядит примерно так: 3-45 45-67
…).

Ключ — сменный элемент
шифра, который применен для шифрования конкретного сообщения.

Шифры перестановки

Маршрутная транспозиция

1. Т — дополнительная буква.

В

О

С

К

Р

Е

А

М

Я

А

Н

С

Т

Е

М

А

Т

И

Я

А

К

С

Е

Ч

Ш

К

О

Л

А

Т

Фраза «Воскресная математическая школа» становится:
«ЕСИЧТ АЕТНР КААСЛ ОКМЯС ОМЕАК ШЯТАВ».

Ключ — число 6.

Задание 3:

  1. Зашифровать:

a) Французский математик Пьер Ферма по образованию был юрист.

b) Леонардо Пизанского математики знают под именем «сын
добряка» или Фибоначчи.

  1. Дешифровать
    (восстановить сообщение, зная ключ) Ключ 8.
    Чинои сечем лчгмс хыеоо еаитн ккыин лтсбч втрйы еоосс ееорс неомв бадер
    покп.

Примечание: АБ-дополнительные буквы.

  1. Расшифровать
    (восстановить сообщение, не зная ключа).
    Осуз уаан евем исчи тдьм одоа ьлвь рдво быи.
  2. Расшифровать:

    Етгртуой дкмиуиав цлишлаег врныинис аяоплыдб аанполбр.

 2. Ключом является правило расстановки.

В

О

Е

С

М

А

Л

А

Воесмала срнето катик яачш мея са к.

Или

Воес мала срне тока тикя ачшм еяса к.

С

Р

Н

Е

Т

О

К

А

Т

И

К

Я

А

Ч

Ш

М

Е

Я

С

А

К

Задание 4:

  1. Расшифровать
    фразу: Сошки ввнлы охеде нванз бркое еуквс изазх.
  2. Расшифровать
    фразу: Леор тиюд тнет мауа ялее очнм кжхо йчей ооот лсеч и_пчс днит _киех
    са_чл илж_а шоо_в рп_уо_ к_ _

Постолбцовая
транспозиция

К

А

Ш

А

Лшше ссис пссл шшао соак ааои ау.

Над столбцами записывается ключевое слово, затем в соответствии
с порядком букв в алфавите столбцы нумеруются, а затем выписываются подряд:
первый столбец, за ним второй и т.д.

Ключ здесь — «каша».

3

1

4

2

Ш

Л

А

С

А

Ш

А

П

О

Ш

О

С

С

Е

И

С

О

С

А

Л

А

С

У

Ш

К

И

Задание 5:

  1. Зашифруйте
    фразу: Не плюй в колодец: вылетит — не поймаешь.
  2. Дешифруйте
    старинное японское хайку: (ключом будет имя известного японского поэта
    «Басё») Тйдг адга лвис ыуы лояк пкшр ррув лшсс иеап пнву увет н.
  3. Расшифруйте
    высказывание Козьмы Пруткова: Ако еаь дне дсц тан жод сск даг рео о.

Шифр
«Решетка»

11

Если хочешь быть
красивым поступи в гусары. (Высказывание Козьмы Пруткова)
Пьеиис влыбым тивхгь укпрос оарчсе ташуыс.
Ключом является решетка

Задание 6:

  1. Придумать
    решетку и зашифровать фразу:

«Евклид был древнегреческим математиком»

  1. Дешифровать:

12

а) Сиекпе тпароо
коолко йслтйс тськво нвоски.
б) Двплго раимид рувтай гуекте гньдот ыоруам.
 

Шифры замены

Шифр «Британский
флаг»

91

Ответ: флаг.

Задание 7: зашифровать фразу: «ВГГУ».

Каждая буква заменяется
несколькими символами

Криптография

11179161915417121932

К1К7А9К6К9К5А4К7А1Ф1А9Ю2

И2О2ИО1О4ОА3О2АУ1ИЯ

Задание 8:

  1. Расшифровать:
    1111712 20 111211728 201117112 11517112121228
  2. Расшифровать:
    11212941191517 16122812 1615 176116 111514415
  3. Расшифровать:
    11176191832 5157529 1815291716191832
  4. Расшифровать:
    И1А2А5И5О4 Е3И5О4Я1О2 Я1И5О4Е3И5 И6О1И6О1О5 И3Ю1О2И5У8 И1А3И6И3Е3
    А2О5А4О3И2 Е3И1О2А5Е1 Е3О3О3А5О2.

Шифры «Пляшущие
человечки»

Основной метод расшифровки подобных шифров — частотный анализ. (+
логические рассуждения).

Таблица частот:

В русском языке в каждой тысяче символов в среднем встречается

пробел

175

р

40

я

18

х

9

о

90

в

38

з

16

ж

7

е, ё

72

л

35

ы

16

ш

6

а

62

к

28

б

14

ю

6

и

62

м

26

ъ, ь

14

ц

4

н

53

д

25

г

13

э

3

т

53

п

23

ч

12

щ

3

с

45

у

21

й

10

ф

2

Чаще всего буквы заменяют другими буквами.

Задание 9:  расшифровать текст:

Сзргйзю тсуцълн Уйиефнлм цкрго, ъхс зов кргнспфхег ф зиецынсм ргзс
тсзсмхл, ритулрцйзиррс тсжсесулхя с тсжсзи л тсфои ахсжс туизфхгелхяфв. Рг
сзрсм лк тусжцосн ср тсефхуиъго жцовбьцб ф дсосрнсм зиецынц. Тсуцълн тсзсыио н
рим, трцо ии дсосрнц хгн, ъхс хг згоинс цоихиог л фнгкго:

— Рлкнс оихлх. Елзгхя, н зсйзб. Нфхгхл, угкуиылхи туизфхгелхяфв,
тсуцълн Уйиефнлм.

С – 37                         И – 21                         Г-18                Н
– 18                         Л — 18

З – 17                          Р -16                           Ц –
14             Т – 14                         Ф – 13

У – 13                         Е – 10                         М –
7              Й – 5                           Я -3

А – 1                           Ю – 1 

Шифр Цезаря.

В шифре Цезаря каждая буква заменяется на букву, которая идет
через 3 после этой: т.е. А=>Г, О=>С, Я=>В.

Примечание: можно делать сдвиг не на три, а на произвольное количество букв.

Задание 10: расшифровать текст

Сзргйзю тсуцълн Уйиефнлм цкрго, ъхс зов кргнспфхег ф зиецынсм ргзс
тсзсмхл, ритулрцйзиррс тсжсесулхя с тсжсзи л тсфои ахсжс туизфхгелхяфв. Рг
сзрсм лк тусжцосн ср тсефхуиъго жцовбьцб ф дсосрнсм зиецынц. Тсуцълн тсзсыио н
рим, трцо ии дсосрнц хгн, ъхс хг згоинс цоихиог л фнгкго:

— Рлкнс оихлх. Елзгхя, н зсйзб. Нфхгхл, угкуиылхи туизфхгелхяфв,
тсуцълн Уйиефнлм.

Задание 11: зашифровать фразу: «Идет занятие по криптографии».

92

Ключом является сдвиг.

Метод полосок: берутся полоски, прикладываются и в определенном
месте читается слово. Например, слово НГЫГ легко расшифровать. Получается слово
КАША.

Задание 12: расшифровать фразу: Схсоябхфв нсыни пюынлрю фоикнл.

Шифр Виженера.

Ключ ВАЗА: /3 1 8 1/

Сдвиг осуществляется не на постоянную величину, а на номер буквы в
ключевом слове. КРИПТОГРАФИЯ => НСРРХПЛСГХРА.

Сложность при расшифровке в том, что одинаковые буквы переходят в
разные, а разные — в одинаковые => частотный анализ не применим.

Задание 13:

Зашифровать фразу: Математика — царица наук.

Отчет

Отчет должен содержать:

¾     
наименование
работы;

¾     
цель
работы;

¾     
задание;

¾     
последовательность
выполнения работы;

¾     
ответы
на контрольные вопросы;

¾     
вывод
о проделанной работе.

Контрольные вопросы

1.
Где применяется криптография?

2.
Какой смысл в Шифре Гронсфельда?

3.
С помощью системы шифрования Цезаря зашифровать свое имя?

Критерии
оценивания практической работы:

5
 (отлично) –
работа
выполнена полностью и правильно, сделаны правильные выводы; работа выполнена по
плану с учетом техники безопасности.

4  (хорошо) – работа
выполнена правильно с учетом 2-3 несущественных ошибок исправленных
самостоятельно по требованию преподавателя.

3  (удовлетворительно) – работа выполнена правильно не менее чем на половину
или допущена существенная ошибка.

2
 (неудовлетворительно) –
допущены две (и более) существенные ошибки в ходе
работы, которые студент не может исправить даже по требованию преподавателя.

ПРАКТИЧЕСКАЯ РАБОТА

«ИЗУЧЕНИЕ И СРАВНИТЕЛЬНЫЙ АНАЛИЗ МЕТОДОВ ШИФРОВАНИЯ»

Цель работы: исследование
простейших методов шифрования.

Оборудование:
ПК.

Программное
обеспечение: операционная система, калькулятор.

Шифрование данных – это лишь один из важных элементов
системы информационной безопасности, но в отдельности совершенно не
достаточный. Система шифрования лишь тогда эффективна, если грамотно настроены
системы разграничения доступа, контроля целостности операционной среды, средств
обнаружения проникновений, антивирусной и антитроянской защиты и т.д.

Последствия потери данных:

                    
Отправка серверов или
жестких дисков в ремонт;

                    
Перевозка компьютеров
из одного офиса в другой, например, при переезде;

                    
Утилизация
компьютеров, серверов, жестких дисков и лент;

                    
Хранение магнитных
лент в специальном депозитарии (off-site storage);

                    
Перевозка ленты,
например, в депозитарий;

                    
Кража или потеря
жестких дисков или лент.

Зачем нужно шифрование?

Снижение риска раскрытия конфиденциальных
данных из-за так называемого «человеческого фактора», особенно
проявляющегося при возникновении экстремальных ситуаций, когда злоумышленники
могут получить физический доступ к серверам или к зашифрованным дискам,
завладеть администраторским ключом eToken и узнать его PIN-код;

Данные на защищенных дисках всегда
хранятся в зашифрованном виде. Поэтому использовать их, даже сделав копию,
например, при транспортировке сервера, ремонте, краже или изъятии дисков,
невозможно;

Высочайшая надежность — в процессе
шифрования реализована защита данных от сбоев, в том числе и в результате сбоев
питания компьютера;

Получить доступ к данным и расшифровать их
невозможно, даже если под принуждением попробуют заставить это сделать
администратора или владельцев. Система уничтожат ключи шифрования дисков по
сигналу «тревога», полученному при нажатии «красной кнопки»
или от датчиков, обнаруживших несанкционированное проникновение в серверную
комнату или открывание серверной стойки.

1. Криптография. Сравнительный анализ
алгоритмов симметричного шифрования

Криптогра́фия (от
др.-греч. κρυπτός — скрытый и
γράφω — пишу) — наука о методах обеспечения
конфиденциальности (невозможности прочтения информации посторонним) и
аутентичности (целостности и подлинности авторства, а также невозможности
отказа от авторства) информации.

Изначально криптография
изучала методы шифрования информации — обратимого преобразования открытого
(исходного) текста на основе секретного алгоритма и/или ключа в шифрованный
текст (шифротекст). Традиционная криптография образует раздел симметричных
криптосистем, в которых зашифрование и расшифрование проводится с
использованием одного и того же секретного ключа. Помимо этого раздела
современная криптография включает в себя асимметричные криптосистемы, системы
электронной цифровой подписи (ЭЦП), хеш-функции, управление ключами, получение
скрытой информации, квантовую криптографию.

Криптография не
занимается: защитой от обмана, подкупа или шантажа законных абонентов, кражи
ключей и других угроз информации, возникающих в защищенных системах передачи
данных.

Известны два вида
шифрования — традиционное (оно же симметрическое) и «открытое
шифрование» (асимметрическое). При традиционном шифровании законный
пользователь $X$ (Gif 16x13, 139 байт)с помощью
некоторого конечного автомата (шифратора) преобразует последовательность,
называемую открытой информацией, в шифрованную информацию. Шифратор зависит от
параметра (ключа), известного пользователю. Законные пользователи, которым
предназначена информации, осуществляют расшифрование информации также с помощью
некоторого конечного автомата.. В рассматриваемом случае каждый законный
пользователь изначально обладает как преобразованием, так и преобразованием, в
то время как незаконный пользователь не имеет ключа, т. е. не полностью знает
преобразования и. В качестве ключа обычно используется начальное состояние
автомата либо его функция перехода.

Симметричные алгоритмы
шифрования (или криптография с секретными ключами) основаны на том, что
отправитель и получатель информации используют один и тот же ключ. Этот ключ
должен храниться в тайне и передаваться способом, исключающим его перехват.
Рассмотрим общую схему симметричной, или традиционной, криптографии.

Общая схема симметричного шифрования

Рисунок 2.1 Общая схема
симметричного шифрования

В процессе шифрования
используется определенный алгоритм шифрования, на вход которому подаются
исходное незашифрованное сообщение, называемое также plaintext,
и ключ. Выходом алгоритма является зашифрованное
сообщение, называемое также ciphertext. Ключ является
значением, не зависящим от шифруемого сообщения. Изменение ключа должно
приводить к изменению зашифрованного сообщения.

Зашифрованное сообщение
передается получателю. Получатель преобразует зашифрованное сообщение в
исходное незашифрованное сообщение с помощью алгоритма дешифрования и того же
самого ключа, который использовался при шифровании, или ключа, легко
получаемого из ключа шифрования.

Незашифрованное
сообщение будем обозначать P или M, от слов plaintext
и message. Зашифрованное сообщение будем обозначать С, от слова ciphertext.

Безопасность,
обеспечиваемая традиционной криптографией, зависит
от нескольких факторов.

Во-первых,
криптографический алгоритм должен быть достаточно сильным, чтобы передаваемое
зашифрованное сообщение невозможно было расшифровать без ключа, используя
только различные статистические закономерности зашифрованного сообщения или
какие-либо другие способы его анализа.

Во-вторых, безопасность
передаваемого сообщения должна зависеть от секретности ключа, но не от
секретности алгоритма. Алгоритм должен быть проанализирован специалистами,
чтобы исключить наличие слабых мест, при которых плохо скрыта взаимосвязь между
незашифрованным и зашифрованным сообщениями. К тому же при выполнении этого
условия производители могут создавать дешевые аппаратные чипы и свободно
распространяемые программы, реализующие данный алгоритм шифрования.

В-третьих, алгоритм
должен быть таким, чтобы нельзя было узнать ключ, даже зная достаточно много
пар (зашифрованное сообщение, незашифрованное сообщение), полученных при
шифровании с использованием данного ключа.

Классическим примером таких алгоритмов
являются симметричные криптографические алгоритмы, перечисленные ниже:

                   
Простая подстановка

                   
Одиночная перестановка по ключу

                   
Гаммирование

1.1 Простая
перестановка

При шифровании простой перестановкой
ключевое слово с неповторяющимися символами или цифровой ключ. Число колонок в
таблице задаётся количеством символов в ключе, а число строк может быть
фиксировано или может задаваться длиной сообщения. Шифруемый текст записывается
последовательными строками под символами ключа. Для заполнения пустых клеток
(если объём текста меньше ёмкости таблицы) можно использовать любые символы.
Затем текст выписывается колонками в той последовательности, в которой
располагаются в алфавите буквы ключа или в порядке следования цифр, если ключ
цифровой. В качестве примера рассмотрим шифрование сообщения: «БУДЬТЕ ОСТОРОЖНЫ
С ПРЕДСТАВИТЕЛЕМ ФИРМЫ «СПЕКТР». Применим цифровой ключ — 5 1 8 3 7 4 6 2.
Выписывая текст по колонкам, получаем абракадабру:
УОРТМССВИТЬОДЛСЕНТМЕБТПИРРОЫАФКТЖСЕПДРЕЕЫ.

Расшифрование выполняется в следующем
порядке. Подсчитываем число знаков в зашифрованном тексте и делим на число
знаков ключа (41: 8=5 и 1 знак в остатке). Под знаками ключа в соответствующей
последовательности записываем вертикально (колонками) символы зашифрованного
текста в определенном выше количестве. В каждой колонке по 5 символов, а в
одной (первой слева) — 6 символов (5+1 буква в остатке). По строкам таблицы
(горизонтально) читаем исходный текст. Выше, в «Истории тайнописи», упоминается
шифр называемый в некоторых книгах по криптографии «Сцитала» (наматывание ленты
на жезл). Это не что иное, как перестановка по таблице с простым ключом — 1 2 3
4 …

1.2
Подстановка

Каждая из 33 букв русского алфавита
заменяется на другую букву того же алфавита (моноалфавитная подстановка). Такой
шифр (одноалфавитная замена) имеет низкую (временную) стойкость, т. к.
зашифрованный (закрытый) текст имеет те же статистические характеристики, что и
исходный (открытый) — каждая буква имеет свою частоту появления. Поэтому
использовать этот метод целесообразно для шифрования только короткого текста.

Для дополнительной скрытности можно
повторно шифровать сообщение, которое уже было зашифровано. Этот способ
известен под названием двойная перестановка. Для этого размер второй таблицы
подбирают так, чтобы длины ее строк и столбцов были другие, чем в первой
таблице. Лучше всего, если они будут взаимно простыми. Кроме того, в первой
таблице можно переставлять столбцы, а во второй строки. Наконец, можно
заполнять таблицу зигзагом, змейкой, по спирали или каким-то другим способом.
Такие способы заполнения таблицы если и не усиливают стойкость шифра, то делают
процесс шифрования гораздо более занимательным.

1.3
Гаммирование

Метод гаммирования состоит в том, что
символы шифруемого текста последовательно складываются с символами некоторой
специальной последовательности, называемой гаммой.

В потоковых криптосистемах на основе ключа
вырабатывается гамма, которая затем накладывается на текст сообщения. Наложение
осуществляется посредством сложения по модулю 2 (операции XOR).

Зашифрование производится следующим
образом:

ci = mi Ä ki для i=1,2,3…(1.1)

где ci — знак шифротекста;

mi — знак открытого текста;

ki — знак ключевой последовательности;

Ä — сложение по модулю 2.

Поскольку повторное применение операции
XOR восстанавливает первоначальное значение, расшифрование производится
повторным наложением гаммы:

mi = ci Ä ki для i=1,2,3…(1.2)

Преобразование текста осуществляется
потоком по мере выработки гаммы. Поэтому поточные шифры подходят для шифрования
непрерывных потоков данных — голоса, видео и т.д.

Принцип шифрования гаммированием
заключается в генерации бесконечного ключа (гаммы шифра) с помощью датчика
псевдослучайных чисел (ПСЧ) и наложении полученной гаммы на исходные данные
обратимым образом. Процесс расшифрования данных сводится к повторной генерации
гаммы шифра при известном ключе и наложении такой гаммы на зашифрованные
данные.

Если период гаммы превышает длину всего
зашифрованного текста и неизвестна никакая часть исходного текста, то
зашифрованный текст можно раскрыть только путем прямого перебора.

1.4
Сравнительный анализ методов шифрования

Сравнительный анализ методов шифрования
симметрическим методом изложена в таблице 1.1.

После проведенного анализа было выявлено,
что шифрованием методом простой подставки совершенно не эффективные, так как
его можно расшифровать после несложного анализа. Алгоритм одиночной
перестановки гораздо надежнее подставки, но если ключ используется несколько
раз, то его можно проанализировать и взломать. Из трех проанализированных
методов, алгоритм методом гаммирования является самым эффективным.

Но у всех методов есть общий недостаток
отправитель и получатель должны некоторым тайным образом получить копии
секретного ключа и сохранять их в тайне.

Таблица 1.1 Сравнительный анализ
алгоритмов симметричного шифрования

2.
Практический раздел

2.1
Идентификация пользователя

Идентификация пользователя — распознавание
пользователя компьютерной системы на основании ранее заданного описания.
Идентификация имеет целью определение полномочий пользователя (права доступа к
данным и выбора режима их использования).

Для идентификация пользователя по
серийному номеру флеш-карты понадобилось 2 процедуры:

GetDriveType – определяет и возвращает тип
носителя;

GetVolumeInformation – определяет
информацию о носителе, среди которой содержится серийный номер.

Листинг модуля для идентификация
пользователя:

procedure
TParol.InputClick(Sender: TObject);

var

SerialNum,dtyp:DWORD;

a,b:DWORD;

Buffer,disk :Array[0..255]of
char;

Nomer: cardinal;

begin

dtyp:=GetDriveType(‘G:’);

if dtyp <>
DRIVE_REMOVABLE then

begin

ShowMessage(‘Диск не обнаружен. Вход не
выполнен!’);

exit;

end;

GetVolumeInformation(

‘G:’,

Buffer,

sizeof(Buffer),

@SerialNum,

a, b,

nil, 0);

nomer:=3830754817;

if SerialNum = nomer then //сравниваем серийный номер

begin

ShowMessage(‘Вход выполнен!!’) ;

Main.Show();

Parol.Hide();

end

else

ShowMessage(‘Вход не выполнен!!’);

end;

2.2
Симметричное шифрование

Симметричное шифрование — посторонним
лицам может быть известен алгоритм шифрования, но неизвестна небольшая порция
секретной информации — ключа, одинакового для отправителя и получателя
сообщения.

2.2.1 Метод
подстановки

В шифре простой
подстановки производится замена каждой буквы сообщения некоторым заранее
определенным символом (обычно это также буква). В данном шифре ключом является
просто перестановка алфавита (это верно в том случае, если буквы заменяются
буквами).

Как можно понять из
определения, данный шифр является довольно простым. Перейдем к примеру,
показывающему одну из возможных его реализаций.

Программа будет
шифровать и дешифровать только русский текст, оставляя неизменным все
остальное.

Рисунок 2.1 Экранная форма — Шифрование
метом подстановки

Листинг алгоритма шифрования методом
подстановки:

procedure
TMain.Shifrovat1Click(Sender: TObject);

var

i, j, q: integer;

str1, str2: string;

mas: array [1..256, 1..2] of
char;

begin

mas[1,1]:=’1′; mas[1,2]:=’я‘;

mas[2,1]:=’2′; mas[2,2]:=’ч‘;

mas[3,1]:=’3′; mas[3,2]:=’с‘;

mas[4,1]:=’4′; mas[4,2]:=’м‘;

mas[5,1]:=’5′; mas[5,2]:=’и‘;

mas[6,1]:=’6′; mas[6,2]:=’т‘;

mas[7,1]:=’7′; mas[7,2]:=’ь‘;

mas[8,1]:=’8′; mas[8,2]:=’б‘;

mas[9,1]:=’9′; mas[9,2]:=’ю‘;

mas[10,1]:=’0′; mas[10,2]:=’.’;

mas[11,1]:=’-‘; mas[11,2]:=’Я‘;

mas[12,1]:=’=’; mas[12,2]:=’Ч‘;

mas[13,1]:=’!’; mas[13,2]:=’С‘;

mas[14,1]:='»‘;
mas[14,2]:=’
М‘;

mas[15,1]:=’№’; mas[15,2]:=’И‘;

mas[16,1]:=’;’; mas[16,2]:=’Т‘;

mas[17,1]:=’%’; mas[17,2]:=’Ь‘;

mas[18,1]:=’:’; mas[18,2]:=’Б‘;

mas[19,1]:=’?’; mas[19,2]:=’Ю‘;

mas[20,1]:=’*’; mas[20,2]:=’.’;

mas[21,1]:='(‘; mas[21,2]:=’Ф‘;

mas[22,1]:=’)’; mas[22,2]:=’Ы‘;

mas[23,1]:=’_’; mas[23,2]:=’В‘;

mas[24,1]:=’+’; mas[24,2]:=’А‘;

mas[25,1]:=’Й‘; mas[25,2]:=’П‘;

mas[26,1]:=’Ц‘; mas[26,2]:=’Р‘;

mas[27,1]:=’У‘; mas[27,2]:=’О‘;

mas[28,1]:=’К‘; mas[28,2]:=’Л‘;

mas[29,1]:=’Е‘; mas[29,2]:=’Д‘;

mas[30,1]:=’Н‘; mas[30,2]:=’Ж‘;

mas[31,1]:=’Г‘; mas[31,2]:=’Э‘;

mas[32,1]:=’Ш‘; mas[32,2]:=»;

mas[33,1]:=’Щ‘; mas[33,2]:=’д‘;

mas[34,1]:=’З‘; mas[34,2]:=’э‘;

mas[35,1]:=’Х‘; mas[35,2]:=’ж‘;

mas[36,1]:=’Ъ‘; mas[36,2]:=’л‘;

mas[37,1]:=’Ф‘; mas[37,2]:=’о‘;

mas[38,1]:=’Ы‘; mas[38,2]:=’р‘;

mas[39,1]:=’В‘; mas[39,2]:=’п‘;

mas[40,1]:=’А‘; mas[40,2]:=’а‘;

mas[41,1]:=’П‘; mas[41,2]:=’в‘;

mas[42,1]:=’Р‘; mas[42,2]:=’ы‘;

mas[43,1]:=’О‘; mas[43,2]:=’ф‘;

mas[44,1]:=’Л‘; mas[44,2]:=’й‘;

mas[45,1]:=’Д‘; mas[45,2]:=’ц‘;

mas[46,1]:=’Ж‘; mas[46,2]:=’у‘;

mas[47,1]:=’Э‘; mas[47,2]:=’к‘;

mas[48,1]:=»; mas[48,2]:=’е‘;

mas[49,1]:=’Я‘; mas[49,2]:=’н‘;

mas[50,1]:=’Ч‘; mas[50,2]:=’г‘;

mas[51,1]:=’С‘; mas[51,2]:=’ш‘;

mas[52,1]:=’М‘; mas[52,2]:=’щ‘;

mas[53,1]:=’И‘; mas[53,2]:=’з‘;

mas[54,1]:=’Т‘; mas[54,2]:=’х‘;

mas[55,1]:=’Ь‘; mas[55,2]:=’ъ‘;

mas[56,1]:=’Б‘; mas[56,2]:=’Ъ‘;

mas[57,1]:=’Ю‘; mas[57,2]:=’Х‘;

mas[58,1]:=’.’; mas[58,2]:=’З‘;

mas[59,1]:=’й‘; mas[59,2]:=’Щ‘;

mas[60,1]:=’ц‘; mas[60,2]:=’Ш‘;

mas[61,1]:=’у‘; mas[61,2]:=’Г‘;

mas[62,1]:=’к‘; mas[62,2]:=’Н‘;

mas[63,1]:=’е‘; mas[63,2]:=’Е‘;

mas[64,1]:=’н‘; mas[64,2]:=’К‘;

mas[65,1]:=’г‘; mas[65,2]:=’У‘;

mas[66,1]:=’ш‘; mas[66,2]:=’Ц‘;

mas[67,1]:=’щ‘; mas[67,2]:=’Й‘;

mas[68,1]:=’з‘; mas[68,2]:=’1’;

mas[69,1]:=’х‘; mas[69,2]:=’2’;

mas[70,1]:=’ъ‘; mas[70,2]:=’3’;

mas[71,1]:=’ф‘; mas[71,2]:=’4’;

mas[72,1]:=’ы‘; mas[72,2]:=’5’;

mas[73,1]:=’в‘; mas[73,2]:=’6’;

mas[74,1]:=’а‘; mas[74,2]:=’7’;

mas[75,1]:=’п‘; mas[75,2]:=’8’;

mas[76,1]:=’р‘; mas[76,2]:=’9’;

mas[77,1]:=’о‘; mas[77,2]:=’0’;

mas[78,1]:=’л‘; mas[78,2]:=’-‘;

mas[79,1]:=’д‘; mas[79,2]:=’=’;

mas[80,1]:=’ж‘; mas[80,2]:=’!’;

mas[81,1]:=’э‘; mas[81,2]:='»‘;

mas[82,1]:=»; mas[82,2]:=’№’;

mas[83,1]:=’я‘; mas[83,2]:=’;’;

mas[84,1]:=’ч‘; mas[84,2]:=’%’;

mas[85,1]:=’с‘; mas[85,2]:=’:’;

mas[86,1]:=’м‘; mas[86,2]:=’?’;

mas[87,1]:=’и‘; mas[87,2]:=’*’;

mas[88,1]:=’т‘; mas[88,2]:='(‘;

mas[89,1]:=’ь‘; mas[89,2]:=’)’;

mas[90,1]:=’б‘; mas[90,2]:=’_’;

mas[91,1]:=’ю‘; mas[91,2]:=’+’;

mas[92,1]:=’.’; mas[92,2]:=’,’;

mas[93,1]:=’,’; mas[93,2]:=’ё‘;

mas[94,1]:=’ё‘; mas[94,2]:=’]’;

mas[95,1]:=’ ‘; mas[95,2]:=’|’;

result1.Clear();

for i:=0 to text1.Lines.Count-1
do

begin

str2:=»;

str1:= Text1.Lines[i];

for j:=1 to
length(text1.Lines[i]) do

for q:=1 to 95 do

if str1[j]=mas[q,1] then

begin

str2:=str2 + mas[q,2];

break;

end;

Result1.Lines.Add(str2);

end;

end;

2.2.2 Метод
перестановки

При шифровании простой перестановкой
ключевое слово с неповторяющимися символами или цифровой ключ. Число колонок в
таблице задаётся количеством символов в ключе, а число строк может быть
фиксировано или может задаваться длиной сообщения. Шифруемый текст записывается
последовательными строками под символами ключа. Для заполнения пустых клеток
(если объём текста меньше ёмкости таблицы) можно использовать любые символы.
Затем текст выписывается колонками в той последовательности, в которой
располагаются в алфавите буквы ключа или в порядке следования цифр, если ключ
цифровой.

Рисунок 2.2 Экранная форма — Шифрование
метом перестановки

Листинг алгоритма шифрования методом
перестановки:

procedure
TMain.Button1Click(Sender: TObject);

var

k: array [1..20] of integer;

str1, str2 : string;

i, j, kol, x, q: integer;

begin

kol:= length(Kluch2.Text);

for i := 1 to kol do

k[i] :=
StrToInt(Copy(Kluch2.Text, i, 1));

Result2.Clear();

for i := 0 to Text2.Lines.Count
— 1 do

begin

str2:=»;

str1 := Text2.Lines[i];

x:=length(str1) mod kol;

if x>0 then

for j:=1 to kol-x do

str1:=str1+’ ‘;

for j:=1 to (length(str1) div
kol) do

for q:=1 to kol do

str2 := str2+
copy(str1,k[q]+(kol*(j-1)),1);

Result2.Lines.Add(str2);

end;

end;

2.3
Шифрование с открытым ключом

Алгоритм RSA — (буквенная аббревиатура от
фамилий Rivest, Shamir и Adleman) — криптографический алгоритм с открытым
ключом.

RSA стал первым алгоритмом такого типа,
пригодным и для шифрования, и для цифровой подписи. Алгоритм используется в
большом числе криптографических приложений.

Рисунок 2.3. Экранная форма – шифрование
алгоритмом
RSA

2.4
Постановка и верификация ЭЦП

Электро́нная цифровая подпись (ЭП) — реквизит электронного
документа, позволяющий установить отсутствие искажения информации в электронном
документе с момента формирования ЭП и проверить принадлежность подписи
владельцу сертификата ключа ЭП. Значение реквизита получается в
результате криптографического преобразования информации с использованием закрытого
ключа ЭП
.

Критерии
оценивания практической работы:

5
 (отлично) –
работа
выполнена полностью и правильно, сделаны правильные выводы; работа выполнена по
плану с учетом техники безопасности.

4  (хорошо) – работа
выполнена правильно с учетом 2-3 несущественных ошибок исправленных
самостоятельно по требованию преподавателя.

3  (удовлетворительно) – работа выполнена правильно не менее чем на половину
или допущена существенная ошибка.

2
 (неудовлетворительно) –
допущены две (и более) существенные ошибки в ходе
работы, которые студент не может исправить даже по требованию преподавателя.

ПРАКТИЧЕСКАЯ РАБОТА

«ПРАКТИЧЕСКОЕ ПРИМЕНЕНИЕ РАЗЛИЧНЫХ АЛГОРИТМОВ СЖАТИЯ»

Цель: Целью лабораторной  работы является  получение навыков
работы с архиваторами  RAR, ARJ  и ZIP, и ознакомление с основными 
алгоритмами  сжатия информации.

Программное обеспечение:
операционная система, программы архиваторы:
RAR, ARJ  и ZIP

Теоретические основы

При  эксплуатации  персональных компьютеров  по самым 
различным причинам возможны порча или  потеря  информации на  магнитных 
дисках. Это может  произойти из — за  физической порчи  магнитного  диска, 
неправильной корректировки или  случайного  уничтожения  файлов,  разрушения
информации компьютерным  вирусом  и т.д .  Для того  чтобы  уменьшить  потери 
в таких ситуациях,  следует иметь архивные копии  используемых файлов и
систематически  обновлять копии   изменяемых файлов.  Для хранения  архивов данных
можно  использовать  внешние  запоминающие  устройства  большой емкости , 
которые  дают возможность  легко скопировать  жесткий диск (например, 
магнитооптика,  стримеры, » Арвид »  и др.) Однако при  этом 
резервные копии  занимают столько же  места,  сколько занимают исходные файлы
,  и для копирования  нужных файлов может потребоваться много дискет. Более
удобно для создания  архивных копий   использовать  специально разработанные
программы архивации   файлов,  которые  сжимают информацию .  При  архивировании 
степень сжатия файлов сильно  зависит от  их формата.  Некоторые форматы 
данных ( графические, Page Maker  и др.)  имеют упакованные  разновидности, 
при  этом  сжатие  производится  создающей исходный файл программой,  однако 
лучшие архиваторы способны поджать  и их.  Совсем другая  картина наблюдается
при  архивации  текстовых файлов. Текстовые  файлы  обычно сжимаются  на 
50-70%,  а  программы  на  20-30%. Принцип работы архиваторов  основан на 
поиске  в файле » избыточной» информации и последующем ее 
кодировании  с  целью  получения минимального объема.  Самым известным 
методом  архивации  файлов является  сжатие последовательностей одинаковых 
символов.  Например,  внутри  вашего файла находятся последовательности  байтов
,  которые  часто повторяются.  Вместо того чтобы  хранить каждый байт , 
фиксируется количество  повторяющихся  символов и их позиция.  Для наглядности
приведем следующий  пример: Упаковываемый файл занимает  15  байт  и состоит
из  следующей  последовательности  символов:  BBBBBLLLLLAAAAA 

 В шестнадцатиричной системе : 

42 42 42 42 42 4 С 4 С 4 С 4 С 4 С 41 41 41 41 41 

Архиватор  может  представить этот  файл в следующем 
шестнадцатиричном

виде :  01 05 42 06 05 4 С OA 05 41

 Эти последовательности  можно  интерпретировать 
следующим образом: с  первой  позиции  5 раз повторяется знак  В,  с  шестой
позиции  5 раз повторяется знак  L и с  позиции  11 5 раз повторяется знак  А. 
Согласитесь,  очень простая демонстрация  алгоритма архивации . Очевидно,  что
для хранения  файла в его последней форме  требуется лишь 9  байт  —  меньше
на  6 байт . Описанный  метод является  простым  и очень эффективным  способом
сжатия файлов.  Однако он не  обеспечивает  большой  экономии объема, если
обрабатываемый текст содержит небольшое  количество  последовательностей
повторяющихся  символов. 

 Существуют  два  основных способа  проведения
сжатия: 

•  статистический 

•  словарный. 

Лучшие статистические  методы применяют арифметическое
кодирование,  лучшие словарные  —  метод Зива -Лемпела .  В статистическом 
сжатии  каждому  символу  присваивается код ,  основанный на  вероятности   его
появления   в тексте .  Высоко вероятные символы  получают короткие  коды,  и
наоборот .  Такой способ  сжатия называют оптимальным  префиксным кодом . Для
его построения  используют   алгоритмы Хаффмана или Шеннона- Фано. Например,
анализируя  любой  английский  текст,  можно  установить ,  что буква Е
встречается гораздо чаще,  чем  Z,  а Х и Q относятся к наименее встречающимся
. Таким  образом,  используя специальную  таблицу  соответствия,  можно 
закодировать  каждую букву Е меньшим числом бит,  используя более длинный  код 
для более редких  букв , тогда как в обычных  кодировках любому символу
соответствует  битовая  последовательность  фиксированной  длины  ( как
правило, кратной байту). В словарном  методе группы последовательных  символов
или  » фраз » заменяются кодом.  Замененная  фраза может  быть
найдена   в некотором  » словаре».   Популярные архиваторы ARJ, RAR
работают на  основе  алгоритма Лемпела — Зива .  Сущность алгоритмов  Зива  и
Лемпела  состоит в том ,  что фразы  заменяются указателем  на  то  место,  где
они    в тексте  уже  ранее появлялись . Это семейство алгоритмов 
обозначается  как LZ- сжатие .  Такой метод быстро приспосабливается к
структуре текста  и может  кодировать  короткие  функциональные слова,  т.к. 
они  очень часто в нем  появляются.  Новые  слова и фразы  могут также 
формироваться из  частей  ранее встреченных  слов. Декодирование сжатого текста 
осуществляется  напрямую —  происходит  простая замена  указателя готовой 
фразой из  словаря,  на  которую  тот  указывает. На практике   LZ-метод
добивается  хорошего сжатия,  его важным свойством является  очень быстрая
работа  декодировщика . Одной  из  форм такого  указателя   является  пара 
(m,l),  которая заменяет  фразу из  l  символов,  начинающуюся  со смещения m
во входном потоке. Например,  указатель (7,2)  адресует  7-ой и 8-ой символы 
исходной строки . Используя это обозначение,  строка   »
abbaabbbabab»  будет закодирована  как  » abba(1,3)(3,2)(8,3)
«.  Заметим ,  что несмотря    на  рекурсию   в последнем   указателе, 
производимое кодирование не  будет двусмысленным . Распространено  не  верное 
представление,  что за  понятием LZ- метода  стоит единственный   алгоритм . 
Из- за  большого   числа вариантов этого метода  лучшее описание  можно 
осуществить только  через его растущую семью ,  где каждый член  отражает 
свое  решение  разработчика .  Эти версии  отличаются друг  от  друга в двух 
главных    факторах : есть    ли предел  обратного   хода  указателя,  и на 
какие   подстроки из  этого множества   он   может  ссылаться. 

 Продвижение    указателя   в ранее   просмотренную 
часть текста  может  быть

неограниченным ( расширяющееся  окно)  или 
ограничено  окном  постоянного

размера из  N предшествующих  символов,  где  N 
обычно составляет  несколько

тысяч.  Выбранные  подстроки также  могут быть
неограниченным или 

ограниченным множеством фраз,  выбранных   согласно 
некоторому замыслу .

Каждая комбинация   этих    условий является 
компромиссом между  скоростью 

выполнения,  объемом  требуемой  ОП   и качеством
сжатия. 

Расширяющееся окно  предлагает  лучшее сжатие  за 
счет  организации

доступа к большему количеству  подстрок .  Но по мере
роста окна ,  кодировщик

может  замедлить свою  работу  из — за  возрастания
времени  поиска 

соответствующих  подстрок,  а  сжатие    может 
ухудшиться из — за  увеличения 

размеров  указателей.  Если памяти для окна  будет не 
хватать,  произойдет  сброс

процесса,  что также  ухудшит  сжатие    до поры
нового  увеличения  окна . 

Окно постоянного  размера лишено   этих  проблем ,  но
содержит меньше

подстрок,  доступных  указателю.  Ограничение  
множества доступных  подстрок 

размерами  фиксированного окна  уменьшает  размер 
указателей  и убыстряет

кодирование.

 К основным   функциям  архиваторов  относятся :

•  архивация указанных  файлов или  всего текущего 
каталога ;

•  извлечение  отдельных  или  всех  файлов из  архива
;

•  просмотр содержимого  архивного файла;

•  проверка  целостности архивов;

•  восстановление  поврежденных архивов;

•  ведение многотомных  архивов;

•  вывод  файлов из  архива  на  экран или  на  печать
;

•  парольная защита архива .

Архиватор ARJ  не  имеет графического  интерфейса ,  и
вся работа  с  ним 

осуществляется  с  командной  строки .  Формат команд
имеет следующий  вид :

 arj <команда > [- <спецификация 1> [ —
<спецификация 2>]…] < имя  архива>

[< имя   файла >…]  

 Подробную информацию  о списке  команд архиватора 
можно  получить,  набрав  в   

 командной  строке:   arj /? 

 Рассмотрим наиболее  популярные команды  архиватора:

 Для архивации  файлов:   arj a < имя  архива>
<имя   файла 1> < имя   файла 2>

 Для извлечения  файлов из  архива:   arj e < имя 
архива> <имя   файла 1> < имя 

файла 2>

Для просмотра содержимого  архивного файла:  arj l
< имя  архива> 

Для проверки  целостности архива:  arj t < имя 
архива>

Для восстановления  испорченного  архива :  arj -jr
< имя  архива>

Для создания  многотомного архива:  arj a –v<
размер тома> <имя   архива>

<имя   файла 1> < имя   файла 2>

Для вывода файла из  архива  на  экран:  arj p <
имя  архива> <имя    файла > 

Для создания  архива  с  паролем:   arj a –g<
пароль> <имя  архива> <имя  

файла >   или      arj a –g? < имя  архива>
<имя    файла >  в последнем  случае 

пароль  будет запрошен отдельной строкой.

Для создания  самораспаковывающихся  архивов:  arj a
-je <имя  архива> <имя  

файла 1> < имя   файла 2> 

   Архиватор RAR  имеет  версии ,  как для Dos, Win
3.XX   так  и для Windows

95/98.  Последние версии  WinRar имеют  графический 
интерфейс и работа  с 

ними очень проста  и понятна.  Данный архиватор
позволяет создавать как

архивы *.rar  так и архивы *.zip 

К достоинствам  данного архиватора  можно  отнести:

•  графический  интерфейс;

•  высокую  степень сжатия,  даже мультимедийных
файлов;

•  возможность  оценить размер  архива,  не  производя
архивирование.

•  большую  вероятность  восстановления  поврежденных
архивов.

Практическое задание

1.Найдите
на компьютере не  менее 5-ти  текстовых файлов ( расширение .txt)

2.Произведите их сжатие  архиватором  RAR  в обычный 
и SFX- архив. 

3.Зафиксируйте размер  файла до сжатия и после него.

4.Вычислите коэффициент сжатия ( отношение  размера
исходного файла к

размеру сжатого файла)

5.Повторите пункты 1-4  для графических  файлов (
расширение .bmp)

6.Повторите пункты 1-4  для графических  файлов (
расширение .jpg)

7.Повторите пункты 1-4  для звуковых  файлов (
расширение .wav)

8.Сведите полученные результаты  в таблицу. Сделайте 
выводы о том, какие

файлы сжимаются  лучше.

9.Напишите отчет о проделанной работе.

 Содержание отчета

Отчет должен содержать
следующие  разделы:

 
Ответы на   контрольные  вопросы.

 
Результаты  сжатия файлов в виде  таблицы.

 
Выводы о проделанной  работе. 

 Контрольные вопросы

1.  
Зачем  нужно  архивировать  информацию ?

2.  
На чем  основана  работа  архиваторов.  По какому принципу они  сжимают 

информацию.

3.  
Каковы функции  архиваторов.

4.  
Чем отличаются SFX – архивы.

Критерии
оценивания практической работы:

5
 (отлично) –
работа
выполнена полностью и правильно, сделаны правильные выводы; работа выполнена по
плану с учетом техники безопасности.

4  (хорошо) – работа
выполнена правильно с учетом 2-3 несущественных ошибок исправленных
самостоятельно по требованию преподавателя.

3  (удовлетворительно) – работа выполнена правильно не менее чем на половину
или допущена существенная ошибка.

2
 (неудовлетворительно) –
допущены две (и более) существенные ошибки в ходе
работы, которые студент не может исправить даже по требованию преподавателя.

ПРАКТИЧЕСКАЯ РАБОТА

«СРАВНЕНИЕ И АНАЛИЗ АРХИВАТОРОВ.  КОДИРОВАНИЕ
ХАФФМАНА»

Цель: формирование
практических навыков и умений  архивирования и сжатия  файлов.

Оборудование: ПК.

Программное обеспечение: операционная система,
программы архиваторы.

Теоретические основы

Характерной особенностью большинства типов данных, с которыми
традиционно работают пользователи, является определенная избыточность. Степень
избыточности зависит от типа данных.

При обработке информации избыточность также играет важную роль. Так,
напри
мер,
при преобразовании или селекции информации избыточность используют для
повышения ее качества
(репрезентативности, актуальности, адекватности и т.п.).
Однако, когда речь
заходит не об обработке, а о хранении готовых документов или их
передаче, то
избыточность можно уменьшить, что дает эффект сжатия данных.

Если методы сжатия информации применяют к готовым документам, то
нередко
термин
сжатие данных подменяют термином архивация данных, а программные
средства, выполняющие
эти операции, называют архиваторами.

Степень сжатия
файлов характеризуется коэффициентом Кс,
определяемым как отношение объема
сжатого файла
Vc к объему
исходного файла
v, выраженное в процентах: Кo=(Vc / V*100). Степень сжатия зависит от
используемой программы, метода
сжатия и типа исходного файла. Наиболее хорошо сжимаются файлы графических образов,
текстовые файлы и файлы данных,
для которых степень сжатия может достигать 5-40%, меньше
сжи
маются файлы
исполняемых программ и загрузочных модулей
60-90%.
Почти не сжимаются архивные файлы.

Объекты
сжатия

В
зависимости от того, в каком объекте размещены данные, подвергаемые сжатию,
различают:

        
уплотнение (архивацию)
файлов;

        
уплотнение
(архивацию) папок;

        
уплотнение
дисков.

Уплотнение файлов применяют для уменьшения их размеров
при подготовке к пере
даче по каналам электронных сетей или к транспортировке
на внешнем носителе
малой емкости, например на гибком диске.

Уплотнение папок используют как средство архивации данных
перед длительным
хранением, в частности, при резервном копировании.

Уплотнение дисков служит целям повышения эффективности
использования их рабочего пространства и, как правило, применяется к дискам,
имеющим недоста
точную емкость.

Несмотря на изобилие алгоритмов сжатия данных, теоретически есть только
три
способа
уменьшения их избыточности. Это либо изменение содержания данных,
либо изменение их
структуры, либо и то и другое вместе.

Если при
сжатии данных происходит изменение их содержания, метод сжатия необра
тим и при
восстановлении данных из сжатого файла не происходит полного вос
становления исходной
последовательности. Такие методы называют также
методами сжатия с
регулируемой потерей информации.
Они применимы только для тех типов данных,
для которых формальная утрата части содержания не при­
водит к
значительному снижению потребительских свойств. В первую очередь, это
относится к
мультимедийным данным: видеорядам, музыкальным записям, звуко­записям и
рисункам. Методы сжатия с потерей информации обычно обеспечивают гораздо более
высокую степень сжатия, чем обратимые методы, но их нельзя при­
менять к текстовым
документам, базам данных и, тем более, к программному коду.
Характерными форматами
сжатия с потерей информации являются:
JPG для графических данных; .MPG для видеоданных; .МРЗ для звуковых
данных.
         

Если при сжатии данных происходит только изменение их структуры, то
метод
сжатия
обратим. Из результирующего кода можно восстановить исходный массив
путем применения
обратного метода. Обратимые методы применяют для сжатия любых типов данных.
Характерными форматами сжатия без потери информации
являются: .GIF, .TIP, .PCX и многие другие для
графических данных;
.AVI для видеоданных; .ZIP, .ARJ, .RAR, .LZH, .LH, .CAB и многие другие для
любых типов данных.

            Архиваторы

Современные программные средства для создания и
обслуживания архивов отличаются большим объемом функциональных возможностей,
многие из которых выходят за рамки простого сжатия данных и эффективно
дополняют стандартные средства операционной системы. В этом смысле современные
средства архивации данных называют диспетчерами архивов.

К базовым функциям, которые выполняют современные
диспетчеры архивов, относятся: извлечение файлов из архивов, создание новых
архивов, добавление файлов в имеющийся архив, создание самораспаковывающихся
архивов, создание распределенных архивов на носителях малой емкости,
тестирование целостности структуры архивов, полное или частичное восстановление
поврежденных архивов, защита архивов от просмотра и несанкционированной
модификации.

К
дополнительным функциям диспетчеров архивов относятся сервисные функции,
делающие работу
более удобной. Они часто реализуются внешним подключением
дополнительных
служебных программ и обеспечивают:

        
просмотр
файлов различных форматов без извлечения их из архива;

        
поиск
файлов и данных внутри архивов;

        
установку
программ из архивов без предварительной распаковки;

        
проверку
отсутствия компьютерных вирусов в архиве до его распаковки;

        
криптографическую
защиту архивной информации;

        
декодирование
сообщений электронной почты;

        
«прозрачное»
уплотнение исполнимых файлов .ЕХЕ и .
DLL;

        
создание
самораспаковывающихся многотомных архивов;

        
выбор
или настройку коэффициента сжатия информации.

Структура окон WinRAR и WinZip
типична для приложений
Windows. Вид панели инструментов  WinRAR приведен
на рис. 1.

WinRarDelato_ScreenShot                              

Рис. 1. Панель инструментов WinRAR

Самораспаковывающиеся
архивы

В тех случаях, когда архивация производится для передачи документа
потребителю, следует предусмотреть наличие у него программ
ного средства,
необходимого для извлечения исходных данных из уплотненного
архива. Если таких средств у потребителя
нет
создают самораспаковывающиеся архивы.
Самораспаковывающийся архив
готовится на базе обычного архива путем
присоединения к нему небольшого программного модуля. Сам архив получает
расширение .ЕХЕ, характерное для исполняемых файлов (рис. 2). Потребитель
сможет выполнить его запуск как программы, после
чего распаковка архива произойдет на его компьютере автоматически.

Распределенные архивы

В тех случаях, когда предполагается передача большого архива на носителях
малой емкости, например на гибких дисках, возможно распреде
ление одного архива в виде малых
фрагментов на нескольких носителях. Некоторые
диспетчеры (например,
WinZip) выполняют разбиение сразу на гибкие диски, а некоторые
(например,
WinRAR) позволяют выполнить предварительное разбиение архива
на фрагменты заданного размера на жестком диске. Впослед
ствии их можно
перенести на внешние носители путем копирования.

p35104

Рис. 2. Определение параметров архива

При создании распределенных архивов диспетчер WinZip обладает осо­бенностью: каждый
том несет файлы с одинаковыми именами. В результате этого нет возможности
установить номера томов, хранящихся на каждом из гибких дис
ков, по названию
файла. Поэтому каждый диск следует маркировать пометками на
наклейке, а при создании распределенного
архива следует быть внимательнее, чтобы не
перепутать последова
тельность
немаркированных томов.

            В случае необходимости узнать
номер тома можно не по названию файла, а по метке
на диске, хотя эта
операция не слишком удобна. Для этого следует открыть окно «
Мой компьютер»,
выбрать значок дисковода, щелкнуть на нем правой кноп
кой мыши и выбрать в
контекстном меню пункт «Свойства». В диалоговом окне «Свой
ства: Диск …» на вкладке «Общие» можно
узнать номер тома распределенного архива в поле «Метка тома».

            Консольная
версия
WinRAR

Консольная версия WinRAR
поддерживает архивы только в формате RAR, у которых обычно расширение «.rar».
ZIP и прочие форматы не поддерживаются. Пользователи Windows могут установить
GUI-версию RAR – WinRAR, которая обрабатывает и архивы других типов.

Некоторые отличительные особенности RAR:

   
оригинальный высокоэффективный
алгоритм сжатия данных;

   
специальные алгоритмы сжатия,
оптимизированные для текстовых, аудио- и графических данных, а также для 32- и
64-битовых исполняемых файлов архитектуры Intel;

  
лучшая, чем у аналогичных
продуктов, степень сжатия при использовании режима «непрерывного»
(solid) архивирования;

   
электронная подпись (только в
зарегистрированной версии);

   
самораспаковывающиеся (SFX) архивы
и тома;

   
восстановление физически
поврежденных архивов;

   
блокировка, шифрование, задание
порядка архивирования файлов;

   
сохранение прав доступа к файлам, меток
тома и др.

Следует отметить, что при создании томов RAR в FAT или
FAT32 WinRAR автоматически ограничивает
максимальный объем тома до 4 ГБ минус 1
байт, так как эти файловые
системы не поддерживают файлы объемом больше 4 ГБ.

Работа
с
WinRAR из консоли

Синтаксис командной
строки
WinRAR

Формат
вызова:

            WinRAR <команда>   [ -<ключи>… ] <архив>
[<@файлы-списки…>]   [<файлы…>] [ <путь_для_извлечения>
]

Для создания и управления архивами служат параметры
командной строки (команды и ключи). Команда – это строка (или одна
буква), указывающая, что
WinRAR должен выполнить соответствующее действие. Ключи
модифицируют действие команды. Остальные параметры – это имена архива и
файлов, которые будут добавлены или извлечены из архива.

Файлы-списки – это обычные текстовые файлы, содержащие
имена файлов для обработки. Каждое имя файла должно быть указано на отдельной
строке и начинаться с первой позиции строки. В файл-список допускается помещать
комментарии, признак начала комментария – символы //. Например, для архивирования
файлов *.txt из каталога c:1
kursdoc, файлов *.bmp из каталога c:1kursimage
и всех файлов из каталога c:evmmisc  можно создать backup.lst, содержащий
следующие строки:

c:1kursdoc*.txt      //резервная копия текстов

c:1kursimage*.bmp    //резервная копия рисунков

c:1kursmisc

После
этого для архивирования достаточно будет выполнить команду:

winrar a backup @backup.lst

Если требуется прочитать имена файлов с устройства
stdin (стандартный  ввод), то после символа «@» не указывайте имя файла
(просто @).

В одной командной строке разрешается указывать как
обычные имена или группы файлов для обработки, так и файлы-списки. Если не
указаны ни файлы, ни файлы-списки, то подразумевается шаблон *.* (т.е.
WinRAR
обработает все файлы).

Команды:

a      – добавляет указанные файлы к архиву;

m    – переносит указанные файлы и подкаталоги в
архив;

d     – удаляет указанные файлы из архива;

x     – извлекает указанные файлы из архива с
восстановлением структуры подкаталогов;

e      – извлекает указанные файлы из архива в текущий
подкаталог;

v     – просмотр содержимого архива;

u     – добавляет те файлы к архиву, которых в нем
нет;

c      – добавляет комментарии к архиву;

k     –
защита данных от модификации.

Ключи:

-?    – выводит экран помощи;

-r     – сохраняет структуру подкаталогов;

-o+  – при распаковке разрешает перезаписывать
существующие файлы;

-o-   – при распаковке не разрешает перезаписывать
существующие файлы;

-x<name> – все файлы, с соответствующими name
именами, будут исключены из обработки (можно использовать шаблоны);

-x@<list> – задает файл, в котором содержатся
имена файлов, исключаемых из обработки;

-v<size> – создание архивных томов;

-p<password> – назначить пароль.

            Примеры
команд

1).   Добавить комментарий к архиву:

rar c distrib.rar

Комментарии отображаются во время обработки архива.
Длина       комментария не должна превышать 62000 байт. 

2).   Добавить комментарий из файла:    rar czinfo.txt dummy

3).   Записать комментарий архива в указанный файл:

           
            
rar cw
oldarch comment.txt

4).   Выполнить
регистрозависимый поиск строки «first level» в файлах            
*.txt, находящихся в архивах *.rar на диске c:.

                        rar «ic=first level» -r c:*.rar
*.txt

Поддерживаются
следующие необязательные параметры:

i – не различать прописные и строчные буквы (по
умолчанию);

c – различать прописные и строчные буквы;

h – поиск в шестнадцатеричном режиме;

t – использовать таблицы символов ANSI, Unicode и др.

Если ни один параметр не указан, вместо синтаксиса
i=<строка>             можно использовать более простую команду
i<строка>. Модификатор ‘t’ допускается применять вместе с другими
параметрами.

5).   Найти шестнадцатеричную строку f0e0aeaeab2d83e3a9 в
архивах RAR, расположенных в каталоге e:texts

rar ih=f0e0aeaeab2d83e3a9
-r e:texts

6).   Добавить
к пути назначения имя архива

                         rar x -ad *.rar data

Эта опция может пригодиться при распаковке группы архивов.
По  умолчанию RAR извлекает файлы из всех архивов в одну и  ту же папку, если
же указать этот ключ, то файлы из каждого  архива будут распакованы в отдельные
папки (в данном случае в папке ‘data’).

Работа с архиватором WinRAR

            Получение справки о программе

Для получения
справочной информации выберите коман
ду ? Содержание. В окне Справка выберите на вкладке Содержание
раздел
WinRAR Interface, подраздел WinRAR menus, как показано на рис. 3.

p35102

                  Рис. 3. Окно справки WinRAR

После запуска
архиватора
WinRAR на экране будет раскрыто окно,  приведенное на рис. 4.

p35101

Рис.
4. Окно
WinRAR в режиме операций с файлами

Окно архиватора WinRAR, в отличие от окна, WinZip, имеет средства навигации по
дискам и папкам компью
тера:
поле списка для выбора дисков и папок, кнопку для перехо
да на верхний уровень в иерархии
папок.

Для выбора нужного
диска используйте окно списка дисков.
Для выхода в родительский каталог щелкните ярлык папки с
именем «..». Для открытия нужной папки щелкните ярлык с названи
ем папки.           

При проведении
процессов архивации (разархивации) с группой файлов, имена которых задаются
шаблонами, применяются следующие действия. Для выделения группы файлов выберите
в меню
File команду Select group или щелкните кнопку Серый
плюс
и задайте в окне
выбора маску «0*.*», как показано на рис. 5.
Щелкнув кнопку
«ОК»,
завершите создание маски для выбора группы файлов.

p35106

Рис. 5
Выделение группы файлов в архиве

Для создания архива из нескольких файлов, выделите нужные файлы и щелкните кнопку «Добавить»
(Add) на панели
инструментов
(рис. 6).

            Рис. 6. Добавление выбранных файлов в архив

Для удаления из
архива файла необходимо открыть архив в окне архиватора
WinRAR, указать удаляемый файл и щелкнуть кнопку «Удалить» на
панели инструментов или выбрать
последовательность команд: Команды-Удалить файлы. Подтвердить
удаление
можно,
нажав кнопку «Да» в окне подтверждения Удале
ние (рис. 7).

p35105

Рис. 7. Окно WinRAR в
режиме «удаление файла из архива»

Изменение настроек программы WinRAR

            Для изменения настроек выберите команду Параметры-Установки, после чего на
экране развернется окно настройки параметров
WinRAR. Выбирая
различные вкладки окна Параметры для получения подсказки по параметрам настройки, используйте
всплывающую под
сказку. Задайте
следующие параметры настройки
WinRAR:

            — на вкладке Архивация щелкните кнопку
«Создать по умол
чанию»
для создания опций архивирования по умолчанию, в от
крывшемся после этого окне Установить
параметры
сжатия по
умолчанию включите опции Создать SFX-архив, в списке Размер тома выберите стандартный
размер тома сменного носителя.  Щелкнув кнопку «ОК», закройте окно Установить
параметры сжатия
по умолчанию (рис. 8).
Можно отредактировать значение размера тома в списке Размер тома, задав его величину вручную;

            —
на вкладке Интеграция включите все флажки в поле Связать
WinRAR с и щелкните кнопку «ОК» для
применения внесенных
изменений.
Проверьте действие
измененных параметров, выделив не
сколько файлов и щелкнув кнопку «Добавить» на
панели инстру
ментов.
После этого откроется окно Имя и параметры архива, в
поле Имя архива которого
выводится имя с расширением .ехе (как
было установлено, по умолчанию создается SFX-архив), в поле Размер тома отображается значение заданного
по умол
чанию размер
тома. Щелкнув клавишу
Esc, отмените архивацию.

p35104

Рис. 8. Определение параметров
архива

Создание многотомных архивов

Для создания многотомного архива файлов необходимо  открыть окно архиватора, выбрать в поле списка
дис
ков и папок папку, подлежащую
архивации, выделите все файлы и щелкните кнопку
«Добавить» на панели инструментов.

В окне Имя и
параметры архива
выбрать вкладку Общие. Далее в
поле Имя архива задайте
имя архива (например,
Archive2.rar), выберите вариант формата архива RAR, в поле Volume size (Размер тома) задайте размер тома
архива (например, 1.44).

Внимание: при выполнении лабораторной
работы размер тома определите в несколько раз меньше
суммарного объема файлов,
включаемых в архив, чтобы в процессе архивации было создано нескольких томов.

Щелкнув кнопку «ОК»,
запустите операцию упаковки фай
лов в архив. По окончании архивации в текущем каталоге появится несколько файлов с именем
созданного архива, с расши
рениями, отличающимися нумерацией, например: Archive2.rar, Archive2.r00, Archive2.r01, Archive2.r02 и т.п., где файл с расширением .rar первый том архива, файлы с расширением .r00, .r01, .r02 и т.п. файлы следующих
томов архива.

Создание
защищенных архивов

Для создания архивов,
доступ к которым защищен паро
лем, выберите в меню Файл команду Пароль, в окне Ввод
пароля
по
умолчанию в поле Введите пароль введите значение пароля и
повторите ввод пароля в поле Повторите
пароль для проверки.
Щелкнув кнопку
«ОК», завершите определение пароля. После этого
в данном сеансе работы архиватора доступ ко всем созда
ющимся архивам будет закрываться заданным паролем
(рис. 9).

p35109

Рис.
9. Задание пароля архива

Внимание: при вводе пароля
обратите внимание на включен
ный
регистр символов.

Создайте архив из
нескольких файлов в рабочем каталоге.

При извлечении
файлов из защищенного паролем архива
откроется окно Ввод пароля. Введите в поле Введите пароль
для зашифрованного файла
любое
сочетание символов – неправильный пароль и щелкните кнопку «ОК». Если пароль неправильный, то раскроется окно сообщений, в котором будет выведено сообщение: Ошибка
CRC в
зашифрованном файле (неправильный пароль). Щелкнув кноп
ку «Закрыть», закройте окно
сообщения. Повторно щелкнув кноп
ку «Извлечь в» на панели инструментов, в окне Ввод
пароля
вве
дите
правильный пароль и щелкните кнопку «ОК». Если пароль
был введен правильно, то файл
будет распакован из архива.

Создание самораспаковывающегося ZIP-архива

1).   Запустите
программу
WinZip.

2).   Выполните
команду
File/Open Archive (Файл /Открыть архив).
Откройте ранее создан­
ный
архив .
zip.

3).   Выполните
команду
Actions /Make .Exe File (Действия/Создать
исполнимый файл)
откроется диалоговое окно WinZip SelfExtractor (Генератор
самораспаковываю
щегося архива).

4).   В
поле
Create SelfExtracting Zip files from (Создать самораспаковывающийся
архив из …) необходимо записать адрес исходного
ZIP-файла. Можно
воспользоваться кнопкой
Browse (Обзор) для поиска нужного файла.

5).   В
группе
Self Extractor Type (Тип
самораспаковывающегося архива) включите пере
ключатель, соответствующий операционной системе
компьютера, для которого
готовится архив.

6).   В
группе
Spanning Support (Поддержка распределенного архива) включите
переключатель
No spanning (Без распределения) и нажмите кнопку ОК.

Создание
самораспаковывающегося
распределенного архива

1).   Запустите
программу
WinZip.

2).   Выполните
команду
File/Open Archive (Файл /Открыть архив).
Откройте ранее создан
ный
архив .
zip.

3).   Выполните
команду
Actions /Make .Exe File (Действия /Создать
исполнимый файл)
откроется диалоговое окно WinZip SelfExtractor (Генератор
самораспаковываю
щегося архива).

4).   В
группе элементов управления
Spanning Support (Поддержка
распределенного
архива) включите переключатель Safe Spanning Method (Защищенный метод
рас
пределения)
или
Old Spanning Method (Обычный метод
распределения).

Защищенный метод создает на первом гибком диске два файла:
исполнимый
файл, выполняющий автоматическую распаковку, и первый том
распределенного архива. На последующих дисках создается продолжение
распределенного архива.
Такой подход повышает уровень безопасности, поскольку
даже в том случае,
когда исполнимый файл поврежден, например компьютерным вирусом, информация остается в
архивном файле.
Этот метод применяют для передачи архивных материалов на гибких дисках.

Обычный метод не создает отдельного исполнимого файла и весь архив хранится в одном исполнимом файле, распределенном по нескольким носителям. Данный метод используют для
самораспаковывающихся
архивов,
передаваемых по каналам компьютерных сетей.

5).   Откройте
диалоговое окно
WinZip SelfExtractor (Генератор
самораспаковывающегося архива) и
установите флажок Erase any existing files on the new disk before continuing (Предварительно стереть
все существующие файлы на гибких дисках).

6).   Далее
нажмите кнопку
OK начнется процесс создания первого тома распределенного архива. По окончании процесса по указанию программы
извлеките записанный гибкий диск и вставьте
новый.

7).   Создав
последний том, программа предложит извлечь последний диск и вста
вить первый для
внесения правок в заголовок архива.

            Альтернативные архиваторы

            Среди альтернативных
архиваторов можно выделить 5 программ:
Universal Extractor
– программа, служащая для извлечения данных из архивов практически любых типов;
7-Zip – бесплатный файловый архиватор для
Windows с высокой степенью сжатия; PeaZip – свободный
бесплатный архиватор и графическая оболочка для других архиваторов; IZArc – бесплатный архиватор для Windows,
поддерживающий большое количество форматов; TUGZip – простой в использовании
архиватор, поддерживающий большое количество форматов. Среди перечисленных
архиваторов лидирующие позиции занимает 7-Zip. По степени сжатия он является лучшим не
только среди бесплатных программ, но и подавляющего большинства коммерческих
продуктов. 7-Zip работает со всеми популярными форматами архивов, поддерживает
шифрование, умеет создавать самораспаковывающиеся архивы и обладает многими
другими удобными функциями. К недостаткам 7-Zip можно отнести сравнительно
малое количество поддерживаемых форматов. Программа IZArc умеет распаковывать около 50 типов
архивов, включая многие редкие. Также он может архивировать и сохранять файлы в
12 различных форматах и обрабатывать многотомные ZIP-архивы. Мультиформатный
архиватор TUGZip имеет некоторые специальные
возможности, например, восстановление поврежденных архивов ZIP и SQX. PeaZip – небольшой, бесплатный архиватор с открытыми
кодами, как и IZArc поддерживает множество форматов архивов, включая ACE, ARJ,
CAB, DMG, ISO, LHA, RAR, и UDF, работает как с 32, так и с 64-битнымы версиями
Windows. Universal Extractor
нельзя назвать настоящим архиватором, так как сжимать файлы он не умеет, но
является наилучшим распаковщиком редких  форматов. Огромное количество
поддерживаемых форматов делает его лучшим в этом секторе

Интеграция служебных и прикладных программ с OC

            Под
интеграцией программного обеспечения понимают возможность совместной
работы нескольких
различных программ в рамках единой системы управления. Так,
например, известным системным средством
интеграции является концепция внедрения и
связывания объектов и основанный на ней буфер обмена
Windows. Другим приемом
интеграции, в основе которого лежит
изменение свойств программы Проводник и
связанного с ней контекстного меню
объектов. Для эпизодических работ по архивации и извлечению файлов и
папок удобнее использовать систему, хорошо
интегрированную в
Windows, например, WinZip. Для регулярных работ
по созданию резервных копий папок и дисков удобнее
использовать
автономные средства, поскольку для них проще организуется взаимо
действие с прочими
программами (в частности, со средствами автоматизации).
В этих случаях можно
рекомендовать, например, программу
WinRAR.

1).   Запустите
программу «Проводник» (Пуск / Программы / Проводник).

2).     Скопируйте
в созданную папку несколько произвольных файлов.

3).   Выделите
один из  файлов  и откройте
контекстное меню. Обратите внимание на то, что в нем имеются два пункта
для создания архива (создание архива с произволь
ным именем и с именем, соответствующим текущему файлу).
Появление этих пунктов связано с наличием в
компьютерной системе диспетчера архивов и
интеграции
WinZip с Проводником Windows.

4).   Выполните
команду
Add to Zip (Добавить в архив).
Далее произойдет автоматический запуск
диспетчера архивов WinZip  и откроется
диалоговое окно
Add (Добавление в архив).

5).   В
поле
Add to archive (Добавить в архив)
ввести

название файла создаваемого архива
, адрес текущей папки заносится
автоматически
. Проверив настройку прочих элементов управления, запустите процесс
архивации щелчком на команд
ной кнопке
Add
(Добавить).

6).   Перейдите
в окно программы Проводник и убедитесь в том, что в
папке появился
архивный файл 
test.zip. Щелкните на значке архивного файла правой
кнопкой мыши и изучите новые
команды контекстного меню, позволяющие выполнить
операции с архивным
файлом.

7).   Выполните
команду
Create SelfExtractor (Создать
самораспаковывающийся архив).
В открывшемся диалоговом окне щелкните на командной
кнопке «Да» и в последу
ющих диалоговых окнах откажитесь от проверки созданного
архива.

8).   Закройте
открытые
окна программы
WinZip и в программе Проводник убедитесь в том, что в рабочей папке
появился исполняемый файл (.ехе).

9).   В
программе Проводник выполните перетаскивание значка любого файла (или
группы файлов) на
значок созданного
ZIP-архива. При отпускании кнопки мыши в конце
перетаскивания происходит автоматическое добавление новых
файлов в архив. Если
содержимое правой панели Проводника открыто в режиме
Таблица, после
каждого перетаскивания можно наблюдать увеличение размера
файла архива.

            Исследование
свойств форматов сжатия
графических данных

1).     Откройте
графический редактор
Paint (Пуск/Программы/Стандартные/ Paint).

2).     Загрузите в него
заранее подготовленный многоцветный рисунок.

3).     Определите
размер рисунка в пикселях (Рисунок/Атрибуты).

4).     Оцените
теорети
ческий
размер рисунка в 24-разрядной палитре (3 байта на точку) по формуле:

                         S=MN-3, где   S размер
файла с рисунком (байт);

            М
ширина рисунка (точек);

            N
высота рисунка (точек).

5).   Сохраните
рисунок в папку
C:TempPictures, выбрав имя файла test и назначив тип файла: 24-разрядный
рисунок (.
BMP).

6).     Повторно
сохраните рисунок, выбрав то же имя
test, но назначив тип файла .GIF. При сохранении
произойдет потеря определенной части графической информации.

7).   Восстановите
рисунок, загрузив его из ранее сохраненного файла
Test.bmp.

8).   Вновь
сохраните его под тем же именем, но выбрав в качестве типа файла формата
.JPEG.

9).   Запустите
программу Проводник.

10).   Откройте
папку
C:TempPictures в режиме Таблица.

11).   Определите
размеры файлов
Test.bmp, Test.gif и Test.jpg.

12).   Определите
коэффициент
сжатия файлов (
R), взяв отношения размеров файлов к теоретической величине,
полученной расчетным путем.

Порядок выполнения работы

1) Создать или скопировать на рабочем диске в рабочей
директории 5-7 файлов (текстовых, исполняемых, командных, программных).

2) Создать архивы для этих файлов с помощью различных
архиваторов, например,
WinRar, WinZip и др.

3) Сравнить объемы получившихся файлов, результаты
занести в таблицу и сделать выводы:

Название архиватора

Тип файла

Размер файла

Размер файла после сжатия

Степень сжатия(%)

4) 
C помощью архиватора (в соответствии с заданием преподавателя) выполнить
следующие команды:

a) добавить в архив заданный файл;

б) поместить в архив все файлы из текущего каталога,
за исключением файлов с заданным расширением;

в) создать защищенный архив;

г) создать архивный файл, позволяющий сохранить
структуру каталогов;

д) добавить комментарии к архивам;

е) извлечь заданный файл из архива.

ж) создать многотомный архив, указав  размер тома – 80
К;

з) выполнить поиск заданной строки в архивах по
различным поисковым признакам.

5) Используя программу архивации, создать на диске,
заданном в параметрах, многотомный архив с паролем, заданным в параметрах,
поместив в них все файлы из каталога
LAB рабочего диска, исключив
файлы с расширением
EXE.

6)    Просмотреть списки созданных архивов.

7) Создать командный файл, который с помощью
архиватора позволяет расположить файлы в архиве в заданном порядке, просмотреть
архив, извлечь файлы из архива в заранее созданный каталог.

8)     Создать самораспаковывающиеся RAR
и
ZIP-архивы, не поддерживающие распределенные архивы
(включить переключатель «Без распределения» в группе
Spanning
Support
Поддержка распределенного архива).

9)    Создать самораспаковывающиеся распределенные архивы
RAR— и ZIP-архивы.

10)    Используя диспетчер архивов WinZip,
выполнить интеграцию служебных и прикладных программ с операционной системой
Windows.

11)    Исследуйте свойства форматов сжатия графических
данных (файлы .
bmp, .gif, .jpg). Результаты занесите в таблицу:

Формат
файла

Размер
файла (Кбайт)

Степень
сжатия (%)

24
разрядный .
bmp

.gif

.jpg

12)    Используя программу, например, Excel, построить
диаграммы по результатам, приведенным в таблицах, и сделать выводы.

Содержание отчета

      Отчет должен содержать
следующие  разделы:

 
Ответы на   контрольные  вопросы.

 
Результаты  сжатия файлов в виде  таблицы.

 
Выводы о проделанной  работе. 

Контрольные вопросы

1.            
Для чего необходимо создавать
архив?

2.            
Поясните основные алгоритмы
архивации.

3.            
Как можно упаковать информацию при
хранении на диске?

4.            
Приведите команды упаковки данных
в архив и распаковки данных из архива для архиватора
Winrar.exe в
консольном режиме.

5.            
Как создать защищенный архив?

6.            
Приведите команды упаковки данных
в архив Win
zip.exe и распаковки данных из архива.

7.            
Как создать многотомный архив?

8.            
Укажите расширение имен файлов
продолжения архива.

9.            
Как получить полную справку по
всем возможным режимам работы программы-архиватора?

10.        
Как создать самораспаковывающий
архив?

11.        
Приведите примеры альтернативных
программ архивации.

12.        
В чем особенность альтернативных
программ архивации.

13.        
Что
понимается под интеграцией служебных и прикладных программ с
OC?

Критерии
оценивания практической работы:

5
 (отлично) –
работа
выполнена полностью и правильно, сделаны правильные выводы; работа выполнена по
плану с учетом техники безопасности.

4  (хорошо) – работа
выполнена правильно с учетом 2-3 несущественных ошибок исправленных
самостоятельно по требованию преподавателя.

3  (удовлетворительно) – работа выполнена правильно не менее чем на половину
или допущена существенная ошибка.

2
 (неудовлетворительно) –
допущены две (и более) существенные ошибки в ходе
работы, которые студент не может исправить даже по требованию преподавателя.

4.
КОНТРОЛЬНО-ОЦЕНОЧНЫЕ МАТЕРИАЛЫ
ДЛЯ ПРОМЕЖУТОЧНОЙ АТТЕСТАЦИИ ПО УЧЕБНОЙ ДИСЦИПЛИНЕ

Предметом оценки являются умения и знания. Контроль и
оценка дисциплины ОП.12. Основы теории информации осуществляются через
экзамен с использованием следующих форм и методов:

1) 
До экзамена допускаются
студенты в полном объеме выполнившие практические работы.

2) 
Теоретические вопросы на
экзамен:

1.        
Теория информации – дочерняя наука
кибернетики.

2.        
Основные понятия об информации.

3.        
Основные понятия о канале связи

4.        
Шум

5.        
Кодирование.

6.        
Принципы хранения, измерения информации.

7.        
Принципы обработки и передачи
информации

8.        
Измерение количества информации,

9.        
Единицы измерения информации,

10.     Носители информации.

11.     Передача информации.

12.     Скорость передачи информации

13.    
Вероятностный подход к измерению
дискретной информации
Клода Шеннона.

14.    
Вероятностный подход к измерению
непрерывной информации
Клода Шеннона.

15.    
Теория вероятности

16.    
Функция распределения.

17.    
Дисперсия случайной величины

18.    
Теорема отсчетов Котельникова и
Найквиста — Шеннона

19.    
Математическая модель системы
передачи информации

20.    
Понятие энтропии.

21.    
Формула Хартли.

22.    
Виды условной энтропии.

23.    
Энтропия объединения двух
источников.

24.    
Статистический подход к измерению
информации.

25.    
Закон аддитивности информации.

26.    
Формула Шеннона

27.    
Простейшие алгоритмы сжатия
информации.

28.    
Методы Лемпела-Зива

29.    
Архиваторы и их виды.

30.    
Особенности программ архиваторов

31.     Помехоустойчивое кодирование.

32.     Адаптивное арифметическое кодирование.

33.     Цифровое кодирование.

34.     Аналоговое кодирование

35.     Таблично-символьное кодирование

36.     Числовое кодирование

37.    
Понятие криптографии.

38.    
Использование криптографии на
практике.

39.    
Различные методы криптографии, их
свойства

40.     Методы шифрования

41.     Криптография с симметричным ключом

42.     Криптография с открытым ключом.

43.     Шифрование с использованием перестановок.

44.     Шифрование с использованием замен.

Из представленных вопросов формируется 25 билетов, по два
теоретических вопроса в билете.

Критерии оценки экзамена:

5 «отлично»
выставляется, если студент:

§  полностью раскрыл содержание материала в объеме,
предусмотренном программой и учебником, правильно решил практическое задание;

§  изложил материал грамотным языком в определенной
логической последовательности, точно используя математическую и
специализированную терминологию и символику;

§  правильно выполнил практическое задание, сопутствующие
ответу;

§  показал умение иллюстрировать теоретические положения
конкретными примерами, применять их в новой ситуации при выполнении
практического задания;

§  продемонстрировал усвоение ранее изученных
сопутствующих вопросов,  сформированность и устойчивость используемых при
ответе умений и навыков;

§  отвечал самостоятельно без наводящих вопросов
преподавателя (возможны одна-две неточности при освещении второстепенных
вопросов или в выкладках, которые студент легко исправил по замечанию
преподавателя).

4 «хорошо»
выставляется, если:

ответ удовлетворяет в основном требованиям на оценку
«5», но при этом имеет один из недостатков:

§  в изложении допущены небольшие пробелы, не исказившие
логического и информационного содержания ответа;

§  допущены один-два недочета при освещении основного
содержания ответа, исправленные по замечанию преподавателя;

§  допущены ошибка или более двух недочетов при освещении
второстепенных вопросов или в выкладках, легко исправленные по замечанию
преподавателя.

3 «удовлетворительно» выставляется, если:

§  неполно или непоследовательно раскрыто содержание
материала, но показано общее понимание вопроса и продемонстрированы умения,
достаточные для дальнейшего усвоения программного материала, имелись
затруднения или допущены ошибки в определении понятий, использовании
терминологии, практике и выкладках, исправленные после нескольких наводящих
вопросов преподавателя;

§  студент не справился с применением теории в новой
ситуации при выполнении практического задания, но выполнил задания
обязательного уровня сложности по данной теме;

§  при знании теоретического материала выявлена
недостаточная сформированность основных умений и навыков.

2 «неудовлетворительно» выставляется, если:

§  не раскрыто основное содержание учебного материала;

§  обнаружено незнание или непонимание студентом большей
или наиболее важной  части учебного материала;

§  допущены ошибки в определении понятий, при
использовании терминологии, в чертежах, блок-схем и иных выкладках, которые не
исправлены после нескольких наводящих вопросов преподавателя;

§  студент обнаружил полное незнание и непонимание
изучаемого учебного материала или не смог ответить ни на один из поставленных
вопросов по изучаемому материалу.

5. ЛИСТ СОГЛАСОВАНИЯ

Дополнения и
изменения к комплекту КОС на учебный год

Дополнения
и изменения к комплекту КОС на __________ учебный год по дисциплине
_________________________________________________________________ 

В комплект
КОС внесены следующие изменения:

____________________________________________________________________________

____________________________________________________________________________

____________________________________________________________________________

____________________________________________________________________________

____________________________________________________________________________

____________________________________________________________________________

____________________________________________________________________________

____________________________________________________________________________

____________________________________________________________________________

Дополнения
и изменения в комплекте КОС обсуждены на заседании ПЦК
_______________________________________________________

«_____» ____________ 20_____г.
(протокол № _______ ). 

Председатель  ПЦК ________________ /__________________

Скачано с
www.znanio.ru

Лекции по дисциплине

ОСНОВЫ ТЕОРИИ ИНФОРМАЦИИ.

Тема: Введение. Понятие информации. Информация и данные.

1. Понятие информации

Вопрос о сущности информации возникает у учителей и преподавателей, когда надо ученику объяснить, почему в учебниках такое разнообразие, информация – это свойство материи, сигнал, знания, байт, символ, смысл, данные и вообще неопределяемое понятие.

Информацию можно определить как набор сообщений об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности и не полноты знаний.

Термин информация происходит от латинского informatio, что означает разъяснение, осведомление, изложение. Сообщение в свою очередь является формой представления информации в виде речи, текста, изображения, графиков, таблиц, видеоизображения, звука и т. п.

В широком смысле информация – это общенаучное понятие, включающее в себя обмен сведениями между людьми, людьми и машинами, живой и не живой природой. Данное определение не претендует на полноту и законченность так как информация относится к наиболее фундаментальным понятиям таким как материя, поле, энергия, которые лишь описываются и трактуются.

Информация, как любой объект или явления, имеет три составляющие: сущность, определение и термин.

Рассмотрим гипотезу, основанную на разделении понятия «информация» на два: «данные» и «смысл», т.к. смысл в этой паре является главным, то смысл, назовем «информацией».

С точки зрения философии информация – наиболее общее понятие наряду с материей.  Можно сказать, что она отражает организацию материи.  При этом информация не только пассивно характеризует структуру материи, но и способна активно создавать и воспроизводить эту структуру. Например, любой созданный человеком объект первоначально существует в виде идеи (образа) в голове его творца, а свойства самого человека в значительной степени запрограммированы информацией, хранящейся в его геноме.

“Антиподом” информации, характеризующей стуктурированность материи является энтропия, которая отражает ее неупорядоченность (“хаоc”).

Упорядоченность и хаос (и, соответственно, энтропия и информация) в видимой вселенной непрерывно перетекают друг в друга: например, строить – означает упорядочивать, а разрушать – вносить беспорядок. Но “есть время собирать камни и время разбрасывать камни”. Исходя из этого существует предположение о “законе сохранения” количества информации во Вселенной. Однако, есть и прямо противоположная точка зрения: след всего, что происходит, неуничтожим на “тонких уровнях” организации материи, так что информация постоянно накапливается.

2  Информация в адаптивной системе

Упомянутый выше подход к информации можно считать наиболее общим, однако, он мало что дает в практическом плане. Понятия количества, значения и ценности информации приобретают смысл, если в рассмотрении появляется субъект – система, которая эту информацию использует. Такой системой может быть, например, живой организм, сообщество людей или компьютер, управляющий некоторым агрегатом.

Система всегда существует в определенной среде. Чтобы решать свои задачи она должна иметь собственную модель среды и постоянно корректировать ее на основе получаемых сведений (адаптировать). В рамках такого подхода информация есть «представление субъекта об окружающей среде». Напротив,  энтропия – неопределенность в таком представлении. Появление новых сведений снимает часть неопределенности и энтропия (“незнание”) заменяется информацией (“знанием”).

Обратите внимание, что информация (как “представления субъекта”) сама по себе не материальна, однако, она всегда имеет материальные носители: сигналы, которые ее переносят или параметры элементов, с помощью которых она хранится. Сигналы служат носителями информации при восприятии ее из среды и при передаче от одного субъекта другому (при этом “другой субъект” представляется во “внутренней модели”, как элемент среды). Обратите внимание, что из многообразных физических воздействий среды на субъекта сигналами будут лишь те, из которых субъект получает информацию.

Контрольные вопросы:

  1. Что понимают под информацией?
  2. Что такое «информация» с точки зрения философии?
  3. Какое понятие является антиподом информации?
  4. Дайте пояснение понятию «модель среды».
  5. Для чего служат сигналы?

Тема: Виды и формы представления информации. Свойства информации.

           Формы представления информации

Для человека, как существа общественного, принципиально необходимо обмениваться информацией с себе подобными. Именно способность накапливать, передавать и воспринимать опыт других и сделала его Человеком. При этом по мере развития культуры люди изобретали все более изощренные и разнообразные средства хранения, передачи, а затем и обработки информации.

Классификация основных форм представления информации, используемых человеком для ее передачи и хранения.

1 Символьная информация. Понятие о знаках и знаковых системах

Знаки представляют материальное замещение понятий, которыми человек пользуется, чтобы упорядочить и упростить свои представления о внешнем мире (так, понятие “человек” обобщает множество индивидуальностей разного возраста, пола, расы и т.д., а этому понятию может соответствовать определенный знак, например, пиктограмма).

Обычно знаки образуют систему. Примером знаковой системы являются различные языки – от живого языка человеческого общения до алгоритмического языка для записи программ или языка химических формул. Другие примеры – набор цветов светофора, знаков дорожного движения и т.д. Существуют и внесистемные знаки, которые обычно тоже являются «обломками» знаковых систем (например жесты или междометия).

По своей природе знаковые системы дискретны, то-есть, используют ограниченный набор элементов.

Другой аспект – связь формы знака и его смысла. Знаки, форма (вид), которых непосредственно связана с их смыслом называют символами. Таковы, например, гербы и пиктограммы. Если подобная связь отсутствует (как в случае слов естественного языка или знаков математических операций), знаки называют диакритиками. Обычно знаковые системы состоят из диакритических знаков, хотя в ряде случаев можно проследить их символические корни (например, некоторых букв и иероглифов).

Законы  построения знаковых систем изучает семиотика, которая включает ряд направлений.

Синтактика занимается правилами соединения знаков (например, построения фраз).

Семантика изучает смысл – соответствие знака (слова) и понятия. Фраза «Глокая куздра штеко будланула бокра и кудлачит бокренка» построена синтаксически верно, однако она бессмысленна, поскольку словам не соответствуют понятия.

Прагматика занимается полезностью и истинностью. Фраза «Сегодня хорошая погода» синтаксически правильна и семантически корректна. Однако истинность и ценность информации, которую она передает, зависит от конкретных условий.

Сигматика изучает вопросы обозначений.

В нашем курсе использование знаков рассматривается с точки зрения передачи информации. С этих позиций они представляют собой условное изображение  элементов сообщения. Типичный случай сообщения, ссотоящего из знаков – текст.

2 Графическая информация. Понятие о спектре непрерывных сообщений

Графическая форма представления удобна для отображения информации, которую человек непосредственно, без логической обработки, получает по зрительному каналу (изображения). Она хорошо подходит также для передачи особенностей непрерывных по своей природе сигналов (например, звуковых), а в общем виде – непрерывных зависимостей .

Типичный вариант графического отображения непрерывной зависимости (например, изменения некоего сигнала во времени) показан на Рис. 1. Если учесть, что любой цветовой сигнал может быть представлен как наложение трех цветов (в частности, красного, зеленого и голубого), то изменение цвета точки изображения также можно представить тремя аналогичными зависимостями. Таким образом, подобный подход достаточно универсален.

Зачастую меняющаяся во времени величина сохраняет некоторые стабильные характеристики, в частности, мощность различных частотных составляющих (которым соответствуют участки кривой с разной скоростью изменения амплитуды). Такой “частотный портрет” непрерывной зависимости называется спектром. На рис. 2 приведены несколько примеров спектров – постоянного сигнала (его “частота”  равна 0), гармоники (у которой, разумеется, одна частота) и сложного апериодического сигнала.

В дальнейшем мы вернемся к детальному изучению спектров различных сигналов, используемых при передаче информации по линиям связи. Здесь же уместно отметить следующее: для реальных сигналов, скорость изменения которых конечна, всегда существует некоторая граничная частота спектра fm, соответствующая его самой высокочастотной составляющей.

3 Параметрическая (числовая) информация. Дискретизация непрерывных сообщений

Для представления количественной информации чаще всего используются числа. По сравнению с представлением величин непрерывными зависимостями они дают значительные преимущества в возможностях обработки и хранения информации. Именно поэтому непрерывные сообщения часто “оцифровывают”, то есть представляют как последовательность чисел.

Числовая информация, как и символьная, по своей природе дискретна, так как она может быть представлена ограниченным набором символов (в частности, цифр).

На Рис.1 показана дискретизация непрерывной зависимости U(t). Она включает две составляющих:

  • дискретизацию по времени с шагом Δt;
  • дискретизацию (квантование) по уровню с шагом ΔU.

Благодаря этим двум этапам всю зависимость U(t) можно представить как последовательность дискретных значений, которым соответствуют числа.

Очевидно, что точность дискретизации по уровню может быть выбрана как угодно большой

Важно, что непрерывную информацию с помощью оцифровки (дискретизации) принципиально в любом случае можно представить, как дискретную с любой необходимой точностью. В то-же время, обратное преобразование иногда невозможно (например, для символов). Таким образом, дискретная форма представления информации является наиболее общей.

В соответствие с формами представления информации выделяют и типы дискретных и непрерывных сообщений. Первые состоят из знаков, принадлежащих к определенному алфавиту. Вторые включают непрерывно меняющиеся во времени величины.

Принципиально важно, что непрерывная информация в любом случае могут быть преобразована к дискретной, тогда как обратное преобразование возможно не всегда.

Действительно, непрерывную зависимость некоторых величин можно дискретизировать, если задавать их соответствие  в ограниченном наборе точек. При этом точность такого преобразования принципиально может быть задана достаточно высокой, чтобы не потерять информацию. А вот однозначно восстановить неизвестную кривую по ограниченному набору точек возможно не всегда. Мы будем рассматривать дискретную форму представления информации, как основную.

Контрольные вопросы:

  1. Правилами соединения знаков занимется…
  2. Какой раздел науки занимается изучением смысла – соответствия знака (слова) и понятия.
  3. Что занимается полезностью и истинностью информации?
  4. Какими вопросами занимается сигматика?
  5. Чем удобно графическое представление информации?

Тема: Формы адекватности информации.

     1. Основные виды обработки данных

Представим основные компоненты информационной технологии обработки данных и приведем их характеристики.

Сбор данных.  По мере того как фирма производит продукцию или услуги, каждое её действие сопровождается соответствующими записями данных. Обычно действия фирмы, затрагивающие внешнее окружение, выделяются особо как операции, производимые фирмой.

Обработка данных. Для создания из поступающих данных информации, отражающей деятельность фирмы, используются слежующие типовые операции:

  • Классификация или группировка. Первичные данные обычно имеют вид кодов, состоящих из одного или нескольких символов. Эти коды, выражающие определенные признаки объектов, используются для идентификации и группировки записей;

Пример. При расчете заработной платы каждая запись включает в себя код (табельный номер) работника, код подразделения, в котором он работает, занимаемую должность и т.п. В соответствии с этими кодами можно произвести разные группировки.

  • Сортировка, с помощью которой упорядочивается последовательность записей;
  • Вычисления, включающие арифметические и логические операции. Эти операции, выполняемые над данными, дают возможность получать новые данные;
  • Укрупнение или агрегирование, служащее для уменьшения количества данных и реализуемое в форме расчетов итоговых и средних значений.

Хранение данных. Многие данные на уровне операционной деятельности необходимо сохранить для последующего использования либо здесь же. Либо на другом уровне. Для их хранения создаются базы данных.

Создание отчетов (документов). В информационной технологии обработки данных необходимо создавать документы для руководства и работников фирмы, а также для внешних партнеров. При этом документы могут создаваться как по запросу или в связи с проведенной фирмой операцией, так и периодически в конце каждого месяца, квартала или года.

  1. Обработка аналоговой и цифровой информации

По принципу действия вычислительные машины делятся на три большие класса: аналоговые (АВМ), цифровые (ЦВМ) и гибридные (ГВМ).

Аналоговые вычислительные машины (АВМ) – вычислительные машины непрерывного действия, работают с информацией, представленной в непрерывной (аналоговой) форме, т.е. в виде непрерывного ряда значений какой-либо физической величины (чаще всего электрического напряжения).

Аналоговые вычислительные машины весьма просты и удобны в эксплуатации; программирование задач для решения на них, как правило, нетрудоемкое; скорость решения задач изменяется по желанию оператора и может быть сделана сколь угодно большой (больше, чем у ЭВМ), но точность решения задач очень низкая (относительная погрешность 2-5%). На АВМ наиболее эффективно решать математические задачи, содержащие диференциальные уравнения, не требующие сложной логики.

Цифровые вычислительные машины (ЦВМ) – вычислительные машины дискретного действия, работают с информацией, представленной в дискретной, а точнее, в цифровой форме

Гибридные вычислительные машины (ГВМ) – вычислительные машины комбинированного действия, работают с информацией, представленной и в цифровой, и в аналоговой форме; они совмещают в себе достоинства АВМ и ЦВМ. ГВМ целесообразно использовать для решения задач управления сложными быстродействующими техническими комплексами.

Наиболее широкое применение получили ЦВМ с электрическим представлением дискретной информации – электронные цифровые вычислительные машины, обычно называемые просто электронными вычислительными машинами (ЭВМ), без упоминания об их цифровом характере.

Электронная вычислительная машина, компьютер – комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач.

Контрольные вопросы:

  1. Какие основные методы обработки информации существуют?
  2. Какие машины называются аналоговыми?
  3. Какие машины называются цифровыми?
  4. Какие машины называются гибридными?
  5. Дайте определение ЭВМ.

Тема: Системы счисления. Непозиционные и позиционные системы счисления.

1. Позиционные  и непозиционные системы счисления

Системой счисления называется совокупность приемов и правил для записи чисел цифровыми знаками. Любая предназначенная для практического применения система счисления должна обеспечивать:

  • возможность представления любого числа в рассматриваемом диапазоне величин;
  • единственность представления (каждой комбинации символов должна соответствовать одна и только одна величина);
  • простоту оперирования числами.

Все системы представления чисел делят на позиционные и непозиционные.

Непозиционная система счисления – система, для которой значение символа не зависит от его положения в числе.

Для их образования используют в основном операции сложения и вычитания. Например, система с одним символом-палочкой встречалась у многих народов. Для изображения какого-то числа в этой системе нужно записать количество палочек, равное данному числу. Эта система неэффективна, так как запись числа получается длинной. Другим примером непозиционной системы счисления является римская система, использующая набор следующих символов: I, V, X, L, C, D, M и т. д. В этой системе существует отклонение от правила независимости значения цифры от положения в числе. В числах LX и XL символ X принимает два различных значения: +10 – в первом случае и –10 – во втором случае.

Позиционная система счисления – система, в которой значение символа определяется его положением в числе: один и тот же знак принимает различное значение. Например, в десятичном числе 222 первая цифра справа означает две единицы, соседняя с ней – два десятка, а левая – две сотни.

Любая позиционная система характеризуется основанием. Основание (базис) позиционной системы счисления – количество знаков или символов, используемых для изображения числа в данной системе.

Для позиционной системы счисления справедливо равенство

(1)

где A(q) – произвольное число, записанное в системе счисления с основанием q; ai – коэффициенты ряда (цифры системы счисления); n, m – количество целых и дробных разрядов.

На практике используют сокращенную запись чисел:

(2)

Например:

а) в двоичной системе (q=2)

11010.1012 = 1 · 24 + 1 · 23 + 0 · 22 + 1 · 21 + 0 · 20 + 1 · 2-1 + 0 · 2-2 + 1 · 2-3;

б) в троичной системе (q=3)

22120.2123 = 2 · 34 + 2 · 33 + 1 · 32 + 2 · 31 + 0 · 30 + 2 · 3-1 + 1 · 3-2 + 2 · 3-3;

в) в шестнадцатиричной системе (q=16)

A3F.1CD16 = A · 162 + 3 · 161 + F · 160 + 1 · 16-1 + C · 16-2 + D · 16-3.

Контрольные вопросы:

  1. Что обеспечивает система счисления?
  2. Какая система счисления называется позиционной?
  3. Какая система счисления называется непозиционной?
  4. Какое равенство отожествляется с позиционной системой счисления?
  5. Приведите примеры позиционных и непозиционных систем счисления.

Тема: Недесятичная арифметика и её правила.

          1.  Двоичная арифметика

Арифметические операции во всех позиционных системах счисления выполняются по одним и тем же хорошо известным вам правилам.

Сложение. Рассмотрим сложение чисел в двоичной системе счисления. В его основе лежит таблица сложения одноразрядных двоичных чисел:

0+0=0

0+1=1

1+0=1

1+1=10

Важно обратить внимание на  то, что при сложении двух единиц происходит переполнение разряда и производится перенос в старший разряд. Переполнение разряда наступает тогда, когда величина числа в нем становится равной или большей основания.

Сложение многоразрядных двоичных чисел происходит в соответствии с вышеприведенной таблицей сложения с учетом возможных переносов из младших разрядов в старшие.

В качестве примера сложим в столбик двоичные числа 1102 и 112 :

    1102

+

      112

  10012

Проверим правильность вычислений сложением в десятичной системе счисления. Переведем двоичные числа в десятичную систему счисления и затем их сложим:

1102=1*22 + 1*21+ 0*20 = 610;

112 = 1*21 + 1*20 = 310;

610  + 310 = 910.

Теперь переведем результат двоичного сложения в десятичное число:

10012 = 1*23 +0*22 + 0*21 + 1*20 = 910/

Сравним результаты – сложение выполнено правильно.

Вычитание. Рассмотрим вычитание двоичных чисел. В его основе лежит таблица вычитания одноразрядных двоичных  чисел. При вычитании из меньшего числа (0) большего (1) производится заем из старшего разряда. В таблице заем обозначен 1 с чертой:

0-0 =_0

0-1 =11

1-0 =  1

1-1 =  0

Вычитание многоразрядных двоичных чисел происходит в соответствии с вышеприведенной таблицей вычитания с учетом возможных заемов из старших разрядов. В качестве примера произведем вычитание двоичных чисел 1102 и 112:

   1102

      112

      112

Умножение. В основе умножения лежит таблица умножения одноразрядных двоичных чисел:

0 *0 = 0

0 *1 = 0

1 *0 =0

1 * 1 =1

Умножение многоразрядных двоичных чисел происходит в соответствии с вышеприведенной таблицей умножения по обычной схеме, применяемой в десятичной системе счисления с последовательным умножением множимого на цифры множителя. В качестве примера произведем умножение двоичных чисел  и:

1102

                                                                                                             x

                                                                             112___

                                                                           110

                                                                         110____

                                                                       100102

Деление.  Операция деления выполняется по алгоритму, подобному алгоритму выполнения операции деления в десятичной системе счисления. В качестве примера произведем деление двоичного числа  1102 и 112:

1102     112___

    —              102

      11

         0

Контрольные вопросы:

  1. Какая арифметика называется недесятичной?
  2. Как производится сложение, вычитание, умножение, и деление  в двоичной системе счисления?
  3. Как производится сложение, вычитание, умножение, и деление  в восьмеричной системе счисления?
  4. Как производится сложение, вычитание, умножение, и деление  в шестнадцатеричной  системе счисления?

Тема: Перевод чисел из заданной системы в другую.

  1. Методы перевода чисел

Числа в разных системах счисления можно представить следующим образом:

где  

Значит, в общем виде задачу перевода числа из системы счисления с основанием q1 в систему счисления с основанием q2 можно представить как задачу определения коэффициентов bj нового ряда, изображающего число в системе с основанием q2. В такой постановке задачу перевода можно решить подбором коэффициентов bj.

          Перевод чисел делением на основание новой системы

Перевод целых чисел осуществляется делением на основание q2 новой системы счисления, правильных дробей – умножением на основание q2. Действия деления и умножения выполняются по правилам q1-арифметики. Перевод неправильных дробей осуществляется раздельно по указанным правилам, результат записывается в виде новой дроби в системе с основанием q2.

Пример 1. Перевести десятичное число A = 6110 в систему счисления с q = 2.

     61       | 2  

     60       30       | 2

b0 = 1       30      15       | 2

            b1 = 0     14         7      | 2

                     b2 = 1         6        3     | 2

                                b3 = 1        2       1 = b5

                                          b4 = 1

Ответ: 6110 = 1111012.

Табличный метод перевода

В простейшем виде табличный метод заключается в следующем: имеется таблица всех чисел одной системы с соответствующими эквивалентами из другой системы; задача перевода сводится к нахождению соответствующей строки таблицы и выбору из нее эквивалента. Такая таблица очень громоздка и требует большой емкости памяти для хранения.

Другой вид табличного метода заключается в том, что имеются таблицы эквивалентов в каждой системе только для цифр этих систем и степеней основания (положительных и отрицательных); задача перевода сводится к тому, что в выражение ряда (1) для исходной системы счисления надо поставить эквиваленты из новой системы для всех цифр и степеней основания и произвести соответствующие действия (умножения и сложения) по правилам q2-арифметики. полученный результат этих действий будет изображать число в новой системе счисления.

Пример 2. Перевести десятичное число A = 113 в двоичную систему счисления, используя таблицу эквивалентов цифр и степеней основания

(q2 = 2).

Таблица 1 – Таблица эквивалентов

Десятичное число

Двоичное число

100

0001

101

1010

102

110 0100

Решение. Подставив значения двоичных эквивалентов десятичных цифр и степеней основания в (3), получим

A = 113 = 1 · 102 + 1 · 101 + 3 · 100 = 001 · 1100100 + 0001 · 1010 + 0011 · 0001 = 11100012.

Ответ: 11100012.

  1. Форматы представления чисел с фиксированной плавающей запятой

Число 0,028 можно записать так: 28·10-3, или 2,8·10-2, или 0,03 (с округлением) и т. д. В компьютере используются две формы представления чисел.

Представление чисел с фиксированной запятой (точкой). Оно характеризуется тем, что положение разрядов числа в машинном изображении остается всегда постоянным независимо от величины самого числа.

Число А можно представить в виде

A=[A]ф KA,

где [A]ф – машинное изображение числа в формате с фиксированной запятой, значение которого лежит в пределах

-1 < [A]ф < 1;

KA – масштабный коэффициент, выбирается так, чтобы сохранить соответствие разрадов всех чисел, которыми оперирует компьютер.

Формат (разрядная сетка) машинного изображения чисел с фиксированной запятой разбивается на знаковую часть и поле числа. В знаковую часть записывается информация о знаке числа: 0, если A≥0; 1, если A<0.

0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

№ разряда

Например, числа А1 и A2 в прямом коде имеют машинное изображение:

0

0

1

0

0

1

1

1

0

0

0

1

0

1

1

1

A1 = 0.0100111000101112;

1

0

1

0

0

1

1

1

0

0

0

1

0

1

1

1

A2 = – A1 = 0.0100111000101112.

Представление чисел в формате с плавающей запятой. Оно характеризуется тем, что положение разряда числа в его машинном изображении непостоянно, и число А записывается следующим образом:

A = mApA,

где mA – мантисса числа A; при представлении числа в компьютере мантисса должна удовлетворять ограничению 2-1 ≤ | mA | ≤ 1 – 2-n; n – количество разрядов для изображения мантиссы без знака; pA – порядок числа A.

Формат машинного изображения числа с плавающей запятой содержит знаковые части и поля мантиссы и порядка.

0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

№ разряда

           Форматы данных и машинные коды чисел.

Числа в компьютерах в двоичных кодах представляются как с фиксированной точкой или запятой, так и с плавающей точкой или запятой. Представление чисел в формате с фиксированной точкой получило название естественной формы числа, представление с плавающей точкой – нормальной формы числа. Под те или иные форматы отводится заранее известное количество разрядов (бит) -16,32 и т.д. Эта же величина может быть выражена в байтах, с учетом того, что 1 байт=8 бит.

           Представление чисел в формате с фиксированной точкой

Для чисел в естественной форме положение точки жестко фиксируется:

  • Для целых чисел точка располагается справа от младшего разряда:

00000000000000002 =010, 0111111111111111. 2=32767.10;

  • Для правильных дробей – перед старшим разрядом:

0.0000000000000002=010, 0.0000000000000012=0.000 030 517 57810;

  • Для смешанных дробей – в определенном месте, отделяющем целую часть числа от дробной:

000000.00000000002=0.010, 000001.00000000012=1.000 976 56310

Наиболее часто такая форма используется для целых чисел и целых чисел без знака. Количество разрядов может быть либо 16 (вид Н), либо 32 (вид F).

Во всех форматах знак числа помещается в старший разряд и кодируется как 0 – знак положительного числа, либо как 1 – знак отрицательного числа. Знак отделяется от самого числа воображаемой точкой (рис.)

         Знак              214            213                         21      20

1

1

1

1

1

Аmin

Формат Н

0

1

1

1

1

Аmax

0

1

2

14

15

         Знак              230            229                         21      20

1

1

1

1

1

Аmin

Формат F

0

1

1

1

1

Аmax

0

1

2

14

15

Рис. 1.3. Форматы чисел с фиксированной точкой.

Фиксированная точка позволяет задать число только в строго определенном диапазоне. В формате Н числа можно задавать

От 1111  1111  1111  11112  до 0111  1111  1111  11112,

т.е. от -3276710 до 3276710, или от (1 – 215 ) до (215-1).

В формате F числа могут находиться в интервале

От  1111 1111 1111 1111 1111 1111 1111 11112

До 0111 1111 1111 1111 1111 1111 1111 11112,

т.е. от -7 F F F F F F F16 до 7 F F F F F F F16.

Естественно, что представление в шестнадцатиричной системе для формы F предпочтительнее двоичной.

Рассмотрим несколько примеров.

ЗАДАЧИ

1.3.1. Представить в форматах Н и F числа -12710 и 12710

12710=1*26+1*25+1*24+1*23+1*22+1*21+1*20=0111 11112.

А2Н=0000 0000 0111 11112,  А2F=0000 00 7 F16.

-12710=- (1*26+1*25+1*24+1*23+1*22+1*21+1*20)= -0111 11112.

А2Н=1000 0000 0111 11112,  А2F=8000 00 7 F16.

1.3.2. Определить, какие из следующих шестнадцатиричных чисел положительные, а какие отрицательные: 9754, 157, ADF, 7654AD и  DFEA.

Знак числа определяется по первой цифре: если она меньше 8 (1000), то число положительное, если значение от 8 до F, то отрицательное. Таким образом, получаем 9754<0, 157>0, ADF<0, 7654AD>0 и DFEA<0.

Представление чисел в формате с плавающей точкой

Для расширения диапазона рассматриваемых чисел по сравнению с естественной формой чисел используется формат с плавающей точкой или нормальная форма. Любое число в этом формате представляется, как А= ±maE±Pа,

где ma  — мантисса числа А; Е – основание системы счисления; ±Ра— порядок. Все эти величины – двоичные числа без знака. На рис. 2 приведен формат числа в нормальной форме. Старший разряд (нулевой) содержит знак мантиссы, первый разряд – знак порядка, 6 разрядов, со второго по седьмой, определяют значение порядка, а остальные – мантиссу. Нормальная форма может быть представлена коротким форматом Е (4 байта), длинным форматом  D (8 байт) и повышенной точности (16 байт). Во всех этих формах представления первый байт остается постоянным, изменяется только область, отведенная под мантиссу.

Знак ma                     Знак Ра                       Порядок                    Мантисса           

                              0               1                 2         …               7      8                       31

Рис. 2. Нормальная форма числа

При таком представлении чисел 0 может быть записан 64 разными способами, т.к. для этого подходят любые значения порядков 0*20=0*21=…=0*263. А другие числа могут иметь много различных форм записи. Например, 153610=3*29=6*28=…=768*21.

Для однозначного представления чисел мантиссу нормализуют, т.е. накладывают ограничение 1/Е≤m<1.

Это ограничение означает, что мантисса представляет собой правильную дробь и содержит хотя бы одну значащую цифру после запятой, отличную от нуля. Нормализованным представлением нуля является такое представление, при котором во всех разрядах находятся нули.

При использовании нормальной формы для части компьютеров характерно смещение оси порядков в область положительных значений. В этом случае арифметические действия производятся над порядками, не имеющими знака. В нормальной форме под значение порядка отводится 7 разрядов, один из них знаковый. Таким образом, значение порядка может лежать в интервале 26≤Р≤26-1, т.е. от -64 до 63.

Сместив порядок на 26=64=4016, мы получаем интервал возможных значений 0≤Р≤27-1=127. Смещенный порядок на 4016 называется характеристикой и вычисляется как Рx=P+40.

Если характеристика равна 40, то порядок равен 0; если характеристика меньше 40, то порядок отрицателен; если больше – то положителен.

ЗАДАЧИ

1.3.3. Представить в нормальной сетке Е числа 32001,510  и -32001,510 

Представим числа в шестнадцатиричном коде  32001,510=7D01,816 и

32001,510. =-7D01,816

Затем найдем нормализованные мантиссы и характеристики.

m=7D01,816 m=0,7D018,                                                                                                                                                                                                                                                                                          

при этом характеристика становится равной Рx=40+4=44

Знак m           Рx                                                m

0

100 0100

0111   1101   0000   0001   1000   0000

447D0180>0

 m=-7D01,816 m=-0,7D018,

при этом характеристика становится равной Рx=40+4=44

Знак m           Рx                                                m

1

100 0100

0111   1101   0000   0001   1000   0000

С47D0180<0

Контрольные вопросы:

  1. Как осуществляется перевод чисел делением на основание новой системы.
  2. Как пользуются при табличном методе перевода чисел?
  3. Что понимают под форматом данных?
  4. Как представляется  число в формате с фиксированной точкой?
  5. Как представляется  число в формате с плавающей точкой?

Тема: Меры информации: синтаксическая, семантическая, прагматическая.

Информация — это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состояниях, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

 Информатика рассматривает информацию как связанные между собой сведения, изменяющие наши представления о явлении или объекте окружающего мира. С этой точки зрения информацию можно рассматривать как совокупность знаний о фактических данных и зависимостях между ними.

 В процессе обработки информация может менять структуру и форму. Признаком структуры являются элементы информации и их взаимосвязь. Формы представления информации могут быть различны. Основными из них являются: символьная (основана на использовании различных символов), текстовая (текст — это символы, расположенные в определенном порядке), графическая (различные виды изображений), звуковая.

 В повседневной практике такие понятия, как информация и данные, часто рассматриваются как синонимы. На самом деле между ними имеются различия. Данными называется информация, представленная в удобном для обработки виде. Данные могут быть представлены в виде текста, графики, аудио-визуального ряда. Представление данных называется языком информатики, представляющим собой совокупность символов, соглашений и правил, используемых для общения, отображения, передачи информации в электронном виде.

Информационная коммуникация – это пути процессы, обеспечивающие передачу сообщений от источника информации к её потребителю. Для потребителей информации важной характеристикой является адекватность.

Адекватность информации – определенный уровень соответствия, создаваемого с помощью полученной информации образа реальному образу, процессу или явлению.

 Одной из важнейших характеристик информации является ее адекватность. От степени адекватности информации зависит правильность принятия решения.

 Адекватность информации может выражаться в трех формах: синтаксической, семантической и прагматической.

Синтаксическая адекватность отображает формально-структурные характеристики информации, не затрагивая ее смыслового содержания. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость ее передачи и обработки, размеры кодов представления информации, надежность и Точность преобразования этих кодов и т. д. Информацию, рассматриваемую с таких позиций, обычно называют данными.

Семантическая адекватность определяет степень соответствия образа объекта самому объекту. Здесь учитывается смысловое содержание информации. На этом уровне анализируются сведения, отражаемые информацией, рассматриваются смысловые связи. Таким образом, семантическая адекватность проявляется при наличии единства информации и пользователя. Эта форма служит для формирования понятий и представлений, выявления смысла, содержания информации и ее обобщения.

Прагматическая адекватность отражает соответствие информации цели управления, реализуемой на ее основе. Прагматические свойства информации проявляются при наличии единртва информации, пользователя и цели управления. На этом уровне анализируются потребительские свойства информации, связанные с практическим использованием информации, с соответствием ее целевой функции деятельности системы.

 Каждой форме адекватности соответствует своя мера количества информации.

Синтаксическая мера информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. На этом уровне объем данных в сообщении измеряется количеством символов в этом сообщении. В современных ЭВМ минимальной единицей измерения данных является бит — один двоичный разряд. Широко используются также более крупные единицы измерения: байт, равный 8 битам; килобайт, равный 1024 байтам; мегабайт, равный 1024 килобайтам, и т. д.

Семантическая мера информации используется для измерения смыслового содержания информации. Наибольшее распространение здесь получила тезаурусная мера, связывающая семантические свойства информации со способностью пользователя принимать поступившее сообщение. Тезаурус — это совокупность сведений, которыми располагает пользователь или система. Максимальное количество семантической информации потребитель получает при согласовании ее смыслового содержания со своим тезаурусом, когда поступающая информация понятна пользователю и несет ему ранее не известные сведения. С семантической мерой количества информации связан коэффициент содержательности, определяемый как отношение количества семантической информации к общему объему данных.

Прагматическая мера информации определяет ее полезность, ценность для процесса управления. Обычно ценность информации измеряется в тех же единицах, что и целевая функция управления системой.

Контрольные вопросы:

  1. Что такое информация?
  2. Что понимают под адекватностью информации?
  3. Дайте информационной коммуникации.
  4. Что отображает синтаксическая адекватность?
  5. Что определяет семантическая адекватность?
  6. Дайте определение прагматической адекватности.

Тема: Параметры измерения информации.

Содержательный подход к измерению информации. Сообщение – информативный поток, который в процессе передачи информации поступает к приемнику.  Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными  Информация — знания человека ? сообщение должно быть информативно. Если сообщение не информативно, то количество информации с точки зрения человека = 0. (Пример: вузовский учебник по высшей математике содержит знания, но они не доступны 1-класснику)

Алфавитный подход к измерению информации не связывает количество информации с содержанием сообщения. Алфавитный подход — объективный подход к измерению информации. Он  удобен при использовании технических средств работы с информацией, т.к. не зависит от содержания сообщения. Кол-во информации зависит от объема текста и мощности алфавита. Ограничений на max мощность алфавита нет, но есть достаточный алфавит мощностью 256 символов. Этот алфавит используется для представления текстов в компьютере. Поскольку 256=28, то 1символ несет в тексте 8 бит информации.

Вероятностный подход к измерения информации. Все события происходят с различной вероятностью, но  зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил  Шеннон.

Качество информации является одним из важнейших параметров для потребителя информации. Оно определяется следующими характеристиками:

— репрезентативность – правильность отбора информации в целях адекватного отражения источника информации. Например, в целях большей репрезентативности данных о себе абитуриенты стремятся представить в приемную комиссию как можно больше свидетельств, дипломов, удостоверений и другой информации, подтверждающей их высокий уровень подготовки, что учитывается при зачислении в ВУЗ;

— содержательность – семантическая емкость информации. Рассчитывается как отношение количества семантической информации к ее количеству в геометрической мере. Это характеристика сигнала, про который говорят, что «мыслям в нем тесно, а словам просторно». В целях увеличения содержательности сигнала, например, используют для характеристики успеваемости абитуриента не полный перечень его аттестационных оценок, а средний балл по аттестату;

— достаточность  (полнота) – минимальный, но достаточный состав данных для достижения целей, которые преследует потребитель информации. Эта характеристика похожа на репрезентативность, однако разница состоит в том, что в данном случае учитывается минимальный состав информации, который не мешает принятию решения. Например, абитуриент – золотой медалист может не представлять в приемную комиссию свой аттестат: диплом, подтверждающий получение золотой медали, свидетельствует о полном наборе отличных оценок в аттестате;

— доступность – простота (или возможность) выполнения процедур получения и преобразования информации. Эта характеристика применима не ко всей  информации, а лишь к той, которая не является закрытой. Для обеспечения доступности бумажных документов используются различные средства оргтехники для их хранения, а для облегчения их обработки используются средства вычислительной техники;

— актуальность – зависит от динамики изменения характеристик информации и определяется сохранением ценности информации для пользователя в момент ее использования. Очевидно, что касается информации, которая используется при зачислении, она актуальна, так как само обучение уже закончилось, и его результаты изменены быть не могут, а, значит, остаются актуальными;

— своевременность – поступление не позже заранее назначенного срока. Этот параметр также очевиден недавним абитуриентам: опоздание с представлением позитивной информации о себе при поступлении может быть чревато незачислением;

— точность – степень близости информации к реальному состоянию источника информации. Например, неточной информацией является медицинская справка, в которой отсутствуют данные о перенесенных абитуриентом заболеваниях;

— достоверность – свойство информации отражать источник информации с необходимой точностью. Эта характеристика вторична относительно точности. В предыдущем примере получаемая информация недостоверна;

— устойчивость – способность информации реагировать на изменения исходных данных без нарушения необходимой точности.

Контрольные вопросы:

  1. Какие подходы к измерению информации существуют?
  2. Определите содержательный подход к измерению информации.
  3. Какой подход измерения информации называется алфавитным?
  4. Дайте определение вероятностному подходу.
  5. Какими характеристиками определяется информация?

Тема: Понятие количества  информации. Единицы измерения информации.

1.     Измерение информации в быту (информация как новизна).

Разные люди, получив одно и тоже сообщение, по-разному оценивают количество информации, содержащееся в нем. Оно зависит от того, насколько ново это сообщение для получателя. При этом подходе трудно выделить критерии, по которым можно было вывести единицу измерения информации.

2. Измерение информации в технике (информация – любая хранящаяся, обрабатываемая или передаваемая последовательность знаков).

А) В технике часто используют способ определение количества информации называемый объемным. Он основан на подсчете числа символов в сообщении, т.е. связан с его длиной и не зависит от содержания.

Б) В вычислительной технике (ВТ) применяют две стандартные единицы измерения:

В теории информации количеством информации называют числовую характеристику сигнала, не зависящую от его формы и содержания, и характеризующую неопределенность, которая исчезнет после получения сообщения в виде данного сигнала. В этом случае количество информации зависит от вероятности получения сообщения о том или ином событии.

Для абсолютно достоверного события (событие обязательно произойдет, поэтому его вероятность равна 1) количество информации в сообщении  о нем равно 0. Чем неожиданнее событие, тем больше информации он несет.

Лишь  при равновероятных событиях: ответ «да» или «нет»,  несет 1 бит. Единицы измерения количества информации. Для количественного выражения любой величины необходимо определить единицу измерения. Так, для измерения длины в качестве единицы выбран метр, для измерения массы — килограмм и так далее. Аналогично, для определения количества информации необходимо ввести единицу измерения.

За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица названа «бит».

Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в два раза и, следовательно, полученное количество информации равно 1 биту.

Минимальной единицей измерения количества информации является бит, а следующей по величине единицей является байт, причем 1 байт = 23 бит = 8 бит.

В информатике система образования кратных единиц измерения количества информации несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10n, где n = 3, 6, 9 и так далее, что соответствует десятичным приставкам Кило (103), Мега (106), Гига (109) и так далее.

Компьютер оперирует числами не в десятичной, а в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется коэффициент 2n.

 Так, кратные байту единицы измерения количества информации вводятся следующим образом:

 1 Кбайт = 210  байт = 1024 байт;

 1 Мбайт = 210 Кбайт = 1024 Кбайт;

 1 Гбайт = 210 Мбайт = 1024 Мбайт.

Количество возможных событий и количество информации. Существует формула, которая связывает между собой количество возможных событий N и количество информации I: N=2I.

 По этой формуле можно легко определить количество возможных событий, если известно количество информации. Например, если мы получили 4 бита информации, то количество возможных событий составляло: N = 24= 16.

 Наоборот, для определения количества информации, если известно количество событий, необходимо решить показательное уравнение относительно I. Например, в игре «Крестики-нолики» на поле 8×8 перед первым ходом существует возможных события (64 различных варианта расположения «крестика»), тогда уравнение принимает вид: 64 = 2I.

 Так как 64 = 26, то получим: 26 = 2I.

 Таким образом, I = 6 битов, то есть количество информации, полученное вторым игроком после первого хода первого игрока, составляет 6 битов.

Контрольные вопросы:

  1. Что называется измерением информации?
  2. Какие способы определения количества информации существуют?
  3. Дайте определение количества информации.
  4. какие единицы измерения информации существуют?

Тема: Формула Хартли при определении количества информации.

В 1928 г. американский инженер Р. Хартли предложил научный подход к оценке сообщений. Предложенная им формула имела следующий вид:

            I = log2 K ,

Где К — количество равновероятных событий; I — количество бит в сообщении, такое, что любое из К событий произошло. Тогда K=2I.

 Иногда формулу Хартли записывают так:

            I = log2K = log2 (1 / р) = — log2 р,

т. к. каждое из К событий имеет равновероятный исход р = 1 / К, то К = 1 / р.

   Задача.

  Шарик находится в одной из трех урн: А, В или С. Определить сколько бит информации содержит сообщение о том, что он находится в урне В.

   Решение.

   Такое сообщение содержит I = log2 3 = 1,585 бита информации.

   Но не все ситуации имеют одинаковые вероятности реализации. Существует много таких ситуаций, у которых вероятности реализации различаются. Например, если бросают несимметричную монету или «правило бутерброда».

   «Однажды в детстве я уронил бутерброд. Глядя, как я виновато вытираю масляное пятно, оставшееся на полу, старший брат успокоил меня:

   —    не горюй, это сработал закон бутерброда.

   —    Что еще за закон такой? — спросил я.

   —    Закон, который гласит: «Бутерброд всегда падает маслом вниз». Впрочем, это шутка, — продолжал брат.- Никакого закона нет. Прсто бутерброд действительно ведет себя довольно странно: большей частью масло оказывается внизу.

   —    Давай-ка еще пару раз уроним бутерброд, проверим, — предложил я. — Все равно ведь его придется выкидывать.

   Проверили. Из десяти раз восемь бутерброд упал маслом вниз.

   И тут я задумался: а можно ли заранее узнать, как сейчас упадет бутерброд маслом вниз или вверх?

   Наши опыты прервала мать…»

   ( Отрывок из книги «Секрет великих полководцев», В.Абчук).

   В 1948 г. американский инженер и математик К Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями.

Если I — количество информации,

         К — количество возможных событий,

         рi — вероятности отдельных событий,

то количество информации для событий с различными вероятностями можно определить по формуле:

            I = — Sum рi log2 рi,

где i принимает значения от 1 до К.

   Формулу Хартли теперь можно рассматривать как частный случай формулы Шеннона:

            I = — Sum 1 / К log2 (1 / К) = I = log2 К.

   При равновероятных событиях получаемое количество информации максимально.

   Задачи.

1. Определить количество информации, получаемое при реализации одного из событий, если бросают

а) несимметричную четырехгранную пирамидку;

б) симметричную и однородную четырехгранную пирамидку.

Решение.

а) Будем бросать несимметричную четырехгранную пирамидку.

Вероятность отдельных событий будет такова:

р1 = 1 / 2,

р2 = 1 / 4,

р3 = 1 / 8,

р4 = 1 / 8,

тогда количество информации, получаемой после реализации одного из этих событий, рассчитывается по формуле:

I = -(1 / 2 log2 1/2 + 1 / 4 log2 1/4 + 1 / 8 log2 1/8 + 1 / 8 log2 1/8) = 1 / 2 + 2 / 4 + + 3 / 8 + 3 / 8 = 14/8 = 1,75 (бит).

б) Теперь рассчитаем количество информации, которое получится при бросании симметричной и однородной четырехгранной пирамидки:

I = log2 4 = 2 (бит).

2. Вероятность перового события составляет 0,5, а второго и третьего 0,25. Какое количество информации мы получим после реализации одного из них?

3. Какое количество информации будет получено при игре в рулетку с 32-мя секторами?

 4. Сколько различных чисел можно закодировать с помощью 8 бит?

 Решение: I=8 бит, K=2I=28=256 различных чисел.

   Физиологи и психологи научились определять количество информации, которое человек может воспринимать при помощи органов чувств, удерживать в памяти и подвергать обработке. Информацию можно представлять в различных формах: звуковой, знаковой и др. рассмотренный выше способ определения количества информации, получаемое в сообщениях, которые уменьшают неопределенность наших знаний, рассматривает информацию с позиции ее содержания, новизны и понятности для человека. С этой точки зрения в опыте по бросанию кубика одинаковое количество информации содержится в сообщениях «два», «вверх выпала грань, на которой две точки» и в зрительном образе упавшего кубика.

   При передаче и хранении информации с помощью различных технических устройств информацию следует рассматривать как последовательность знаков (цифр, букв, кодов цветов точек изображения), не рассматривая ее содержание.

    Считая, что алфавит (набор символов знаковой системы) — это событие, то появление одного из символов в сообщении можно рассматривать как одно из состояний события. Если появление символов равновероятно, то можно рассчитать, сколько бит информации несет каждый символ. Информационная емкость знаков определяется их количеством в алфавите. Чем из большего количества символов состоит алфавит, тем большее количество информации несет один знак. Полное число символов алфавита принято называть мощностью алфавита.

    Молекулы ДНК (дезоксирибонуклеиновой кислоты) состоят из четырех различных составляющих (нуклеотидов), которые образуют генетический алфавит. Информационная емкость знака этого алфавита составляет:

            4 = 2I, т.е. I = 2 бит.

   Каждая буква русского алфавита (если считать, что е=е) несет информацию 5 бит (32 = 2I).

   При таком подходе в результате сообщения о результате бросания кубика , получим различное количество информации, Чтобы его подсчитать, нужно умножить количество символов на количество информации, которое несет один символ.

   Количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на число знаков в сообщении.

Контрольные вопросы:

  1. Как выглядит формула Хартли?
  2. Как выглядит формула Шеннона?
  3. В чем разница между вышеперечисленными формулами?

Тема: Закон аддитивности информации и его назначение.

В окружающем нас мире предметов, процессов и явлений четко прослеживаются три уровня, ипостаси или плана (название еще не утвердилось): план материальный, план энергетический и план информационный. Сообщение о результатах выборов, например, может придти в глухую отдаленную деревню в виде газетной полосы (на материальном носителе), в виде сообщения по радио (носитель — энергетический) или любым другим способом. Существенно, что полученная информация вовсе не зависит ни от параметров материального носителя (газета, рукописный текст или каменные скрижали — все равно), ни от параметров энергетического (напряженность поля радиостанции может быть как 300 мВ/м, так и 30 мкВ/м, лишь бы была достаточной для приема).

Благодаря Клоду Шеннону и другим основоположникам теории передачи информации научились измерять ее количественно, так же, как давно умеем измерять массу и энергию. Еще в 1748 г. трудами М. В. Ломоносова установлены законы сохранения вещества и движения:

«… Все перемены, в натуре случающиеся, такого суть состояния, что сколько чего у одного тела отнимется, столько присовокупится к другому… Сей всеобщий естественный закон простирается и в самые правила движения: ибо тело, движущее своей силою другое, столько же оныя у себя теряет, сколько сообщает другому, которое от него движение получает» (Полное собрание сочинений, т. 3, 1952, с. 383).

Позднее был сформулирован и закон сохранения энергии, гласящий, что энергия любой замкнутой системы при всех происходящих в ней процессах остается постоянной. Энергия может только превращаться из одной формы в другую и перераспределяться между частями системы.

 Для незамкнутых систем увеличение или уменьшение энергии равно принятой или переданной энергии другим системам. В современной физике насчитывают довольно много законов сохранения (массы, импульса, момента импульса, энергии, заряда и т. д.). Все они относятся к замкнутым системам (не взаимодействующим с их окружением).

Давайте же, пользуясь методом аналогий, распространим законы сохранения и на информационный план бытия, сформулировав, как гипотезу, закон сохранения информации: в замкнутой системе количество информации остается неизменным.

Правомочность гипотезы в науке принято проверять приложением ее к практике. Дело это нескорое и непростое, но некоторые примеры, как кажется, хорошо иллюстрируют сформулированный закон. Обратимся к близкому и родному — линии передачи информации (см. рисунок).

Оба корреспондента по отдельности, отправитель и получатель, являются, естественно, открытыми системами, поскольку передают и принимают информацию, т. е. взаимодействуют с окружением. Но оба они вместе есть система замкнутая, поскольку взаимодействие происходит внутри нее. Получатель, приняв сообщение, увеличил свою информацию. Если сообщение утеряно, забито шумом и помехами, то ничего страшного — у отправителя то оно осталось. Потому и придуманы протоколы обмена с переспросом, корректирующие коды и тому подобное. Заметим, что отправитель, отослав сообщение, количество своей информации не убавил! По-видимому, в информационном мире несколько иные правила, нежели в энергетическом и материальном. Сообщая информацию, вы ее не теряете, а получая — приобретаете («научился сам — научи другого!»). Но с точки зрения всей замкнутой системы общее количество информации не убавилось, но и не прибавилось, ведь получатель принял то, что уже есть в системе, а заранее известное сообщение (по Шеннону) информации не добавляет. Хотя с узкой точки зрения получателя информации у него прибавилось. Тут, кажется, намечается и «принцип относительности» в информационном мире.

Осмыслив закон сохранения информации (закон аддиьивности), получаем хорошо известный вывод: замкнутые подсистемы, внутри которых произошли уже все возможные передачи сообщений, развиваться и совершенствоваться не могут. Вспомните: «вариться в собственном соку», «загнивающий коллектив» и т. д. Главный принцип развития и совершенствования подсистемы — открытость, способность к обучению, в конечном итоге к обмену, т. е. к передаче и приему информации. Любая радиолюбительская связь — тому подтверждение.

Односторонний обмен, в частности, «работа только на прием», иногда тоже не спасает. Пример: за годы «железного занавеса» отечественная радиоэлектроника почти безнадежно отстала от мировой, хотя «работа на прием» шла во всю и «цельнотянутые» серии радиоламп, транзисторов и микросхем выпускаются до сих пор. Американцы не единожды, и даже в конгрессе поднимали вопрос, не наносит ли ущерб стране открытость публикаций в технических журналах и иных изданиях? Теперь, когда гонка технологий ими выиграна, ответ получен. Ущерба и не должно быть, ведь отдавая информацию, ее не теряешь. Конечно, есть и другие немаловажные причины нашего отставания. Не затрагивая общественно-политических, упомянем лишь закрытость, связанную с чрезмерной секретностью.

Не убывание информации при ее передаче широко используют в библиотеках, банках данных, справочниках. Вопрос хранения — особый. Можно ли утерять информацию? Для мелких подсистем — да. Люди забывают, библиотечные фонды списывают и уничтожают, магнитные ленты и диски стирают. Но стоит раздвинуть границы системы шире (см. рисунок), как мы видим, что в расширенной системе информация сохраняется. Забытый телефон можно переспросить, утерянные сведения — восстановить по первоисточникам и т. д. Широкий обмен способствует сохранению информации («слово не воробей, поймают, и вылетишь!»).

Здесь надо бы различить, перефразируя Иммануила Канта («вещь в себе» и «вещь для нас»), понятия информации вообще, и информации, осмысленной нами. Последняя и приобретается и теряется, первая — нет. «Рукописи не горят». Разве законы тяготения не существовали задолго до Ньютона? И разве любое падающее яблоко не несло информацию о них? Просто Исаак Ньютон осмыслил их и представил в сжатой и понятной научному миру форме. В этом и состоит открытие. Индусы говорят больше: «каждый встреченный тобой человек — твой Великий Учитель».

Теперь огромное значение приобрел Интернет, явление, чрезвычайно интересное с философской точки зрения. Суммарный объем выкладываемой информации неудержимо растет, а разработчики создают все более совершенные накопители информации, вмещающие этот объем! Это еще одно подтверждение закона сохранения информации (закона аддитивности).

Когда появились первые авторучки (вечные перья), сочинили поговорку: «Раньше гусиными перьями писали вечные мысли, теперь же вечными перьями пишут …. мысли!». Что бы сказал автор поговорки, освоив современный компьютер? Помните, любители флейма, ваши сообщения останутся в вечности! Позвольте и мне воспользоваться Интернетом, чтобы сохранить гипотезу о законе сохранения информации.

Контрольные вопросы:

  1. О чем гласит закон аддитивности?
  2. Кто первый  заговорил об этом законе?
  3. Каково назначение закона?

Тема: Алфавитный подход к измерению информации.

Как измерить информацию? Часто мы говорим, что, прочитав статью в журнале или просмотрев новости, не получили никакой информации, или наоборот, краткое сообщение может оказаться для нас информативным. В то же время для другого человека та же самая статья может оказаться чрезвычайно информативной, а сообщение — нет. Информативными сообщения являются тогда, когда они новы, понятны, своевременны, полезны. Но то, что для одного понятно, для другого — нет.

Вопрос «как измерить информацию?» очень непростой. Существует два подхода к измерению количества информации.

Первый подход называется содержательным. В нем информация рассматривается с субъективной точки зрения, т.е. с точки зрения конкретного человека. В этом случае количество информации в сообщении не равно нулю, если сообщение пополняет знания человека.

Второй подход называется алфавитным. Этот способ не связывает количество информации с содержанием сообщения, и называется он алфавитным подходом. Алфавитный подход является объективным способом измерения информации в отличие от субъективного, содержательного, подхода. Следовательно, при алфавитном подходе к измерению информации количество информации от содержания не зависит. Количество информации зависит от объема текста (то есть от числа знаков в тексте).

Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита.

Алфавит — упорядоченный набор символов, используемый для кодирования сообщений на некотором языке.

Мощность алфавита — количество символов алфавита.
Двоичный алфавит содержит 2 символа, его мощность равна двум.
Сообщения, записанные с помощью символов ASCII, используют алфавит из 256 символов. Сообщения, записанные по системе UNICODE, используют алфавит из 65 536 символов.

Чтобы определить объем информации в сообщении при алфавитном подходе, нужно последовательно решить задачи:

  1. Определить количество информации (i) в одном символе по формуле 2i = N, где N — мощность алфавита
  2. Определить количество символов в сообщении (m)
  3. Вычислить объем информации по формуле: I = i * K.

Количество информации во всем тексте (I), состоящем из K символов, равно произведению информационного веса символа на К:

I = i * К.

Эта величина является информационным объемом текста.

Например, если текстовое сообщение, закодированное по системе ASCII, содержит 100 символов, то его информационный объем составляет 800 бит.

2i = 256  I = 8

I =  8 * 100 = 800
Для двоичного сообщения той же длины информационный объем составляет 100 бит.  

Необходимо так же знать единицы измерения информации и соотношения между ними.

Единицы измерения информации

Как уже было сказано, основная единица измерения информации — бит.

8 бит составляют 1 байт.
Наряду с байтами для измерения количества информации используются более крупные единицы:
1 Кбайт (один килобайт) = 210 байт = 1024 байта;
1 Мбайт (один мегабайт) = 210 Кбайт = 1024 Кбайт;
1 Гбайт (один гигабайт) = 210 Мбайт = 1024 Мбайт.
В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:
1 Терабайт (Тб) = 1024 Гбайт = 240 байта,
1 Петабайт (Пб) = 1024 Тбайта = 250 байта.

Контрольные вопросы:

  1. Как измеряется информация при содержательном подходе?
  2. Что такое алфавит?
  3. Что называется мощностью алфавита?
  4. Что называется объемом информации?

Тема: Данные и их кодирование. Принципы кодирования и декодирования.

1. Коды: прямой, обратный, дополнительный.

В компьютерной технике применяются три формы записи (кодирования) целых чисел со знаком: прямой код, обратный код, дополнительный код.. Последние две формы применяются особенно широко, так как позволяют упростить конструкцию арифметико-логического устройства компьютера путем замены разнообразных арифметических операций  операцией сложения.

  • Положительные числа в прямом, обратном и дополнительном кодах изображаются одинаково – с цифрой 0 в знаковом разряде.

ПРИМЕРЫ.   Число 110=12:         Число 12710=11111112

0

0

0

0

0

0

0

1

                         Знак числа «+»

  • Отрицательные числа в прямом, обратном и  дополнительном кодах имеют разное изображение.
  1. Прямой код. В знаковый ряд помещается цифра 1, а в разряды цифровой части числа – двоичный код его абсолютной величины.

ПРИМЕРЫ.   Прямой код числа -1:         Прямой код числа -127:

1

0

0

0

0

0

0

1

                          Знак числа «-»

  1. Обратный код получается инвентированием всех цифр двоичного кода абсолютной величины числа, включая разряд знака: нули заменяют единицами, а единицы – нулями.

ПРИМЕРЫ.   Число: -1.         Число: -127.

Код модуля числа:   0 0000001.        Код модуля числа:   0 1111111

Обратный код числа: 1 1111110.         Обратный код числа: 1 0000000

1

1

1

1

1

1

1

0

  1. Дополнительный код получается образованием обратного кода с последующим прибавлением единицы к его младшему разряду.

ПРИМЕРЫ.   Дополнительный код числа-1:    Дополнительный код числа-127

1

1

1

1

1

1

1

1

Обычно отрицательные десятичные числа при вводе в машину автоматически преобразуются в обратный или дополнительный двоичный код и в таком виде хранятся, перемещаются и участвуют в операциях. При вводе таких чисел из машины происходит обратное преобразование в отрицательные десятичные числа.

Контрольные вопросы:

  1. Какие формы кодирования информации вы знаете?
  2. Что происходит в прямом коде?
  3. Как получается обратный код?
  4. Как получается дополнительный код?
  5. Как кодируются положительные и отрицательные числа

Тема: Характеристика процесса передачи данных.

Режимы и коды передачи данных

  1. Структурная схема системы передачи информации.

Нужно различать понятия «информация и «сообщение». Под сообщением понимают информацию, выраженную в определенной форме и подлежащую передаче. Сообщение – это форма представления информации. FE: примерами сообщений являются: текст телеграммы, речь оратора, показания измерительного датчика, команды управления и т.д.

Структурная схема одной из характерных информационных систем в общем случае может быть представлена как:

                Сообщение                                    Сигнал                                                Помехи

0

1

1

1

1

1

1

1

                                      Знак числа «+»

1

1

1

1

1

1

1

1

                                      Знак числа «-»

1

0

0

0

0

0

0

0

1

0

0

0

0

0

0

1

                                                                                       Канал связи                        

Система состоит из отправителя информации, линии связи и получателя информации. Сообщение для передачи его в соответствующий адрес должно быть предварительно преобразовано в сигнал. Под сигналом понимается изменяющаяся физическая величина, отображающее сообщение. Сигнал – материальный переносчик сообщения, т.е. изменяющаяся физическая величина, обеспечивающая передачу информации по линии связи. Физическая среда, по которой происходит передача сигналов от передатчика к приемнику, называется линией связи.

В современной технике нашли применение электрические, электромагнитные, световые, механические, звуковые, ультразвуковые сигналы. Для передачи сообщений необходимо принять тот переносчик, который способен эффективно распределяться по используемой в системе линии связи (FE: по радиолинии эффективно распределяется только электромагнитные колебания высоких частот – от сотен кГц до дес. тысяч МГц).

  1. Классификация сигналов по дискретно-непрерывному признаку.

Все сообщения по характеру изменяющиеся во времени можно разделить на непрерывные и дискретные. Непрерывные по времени сообщения отображаются непрерывной функцией времени. Дискретные по времени сообщения характеризуются тем, что поступают в определенные моменты времени и описываются дискретной функцией t.

Сообщения также можно разделить на непрерывные и дискретные по множеству. Непрерывные множеству сообщения характеризуются тем, что функция, их описывающая, может принимать непрерывное множество значений. Дискретные по множеству сообщения – это сообщения, которые могут быть описаны с помощью конечного набора чисел или дискретных значений некоторой функции.

Дискретности по множеству и времени не связаны друг с другом. Рассмотрим возможные типы сообщений подробнее.

Пусть сигнал описывается функцией X (t)

1) непрерывные по множеству и времени, или просто непрерывные; (рис. 1.2)

2) непрерывные по множеству и дискретные по времени; (рис. 1.3)

3) дискретные по множеству и непрерывные по времени; (рис. 1.4)

4) дискретные по множеству и времени, или просто дискретные;

(рис. 1.5)

В процессе преобразования дискретных сообщений в сигнал происходит кодирование сообщения. В широком смысле кодированием называется преобразование сообщений в сигнал. В узком смысле кодирование – это отображение дискретных сообщений сигналами в виде определенных сочетаний символов. Устройство, осуществляющее кодирование называется кодером. 

При  передаче сигналы подвергаются воздействию помех. Под помехами подразумеваются  любые мешающие внешние возмущения или воздействия (атмосферные помехи, влияние посторонних источников сигналов), а также искажения сигналов в самой аппаратуре (аппаратурные помехи), вызывающие случайное отклонение принятого сообщения (сигнала) от передаваемого.

На приемной стороне осуществляется обратная операция декодирования, т.е. восстановление по принятому сигналу переданного сообщения.

Решающее устройство, помещенное после приемника, осуществляет обработку принятого сигнала с целью наиболее полного извлечения из него информации.

Декодирующее устройство, (декодер)преобразует принятый сигнал к виду удобному для восприятия получателем.

Совокупность средств, предназначенных для передачи сигнала, называется каналом связи. 

  1. Квантование и кодирование сигналов

Физические сигналы являются непрерывными функциями времени. Чтобы преобразовать непрерывный, в частности, аналоговый сигнал в цифровую форму используются аналого-цифровые преобразователи (АЦП). Процедуру аналого-цифрового преобразования сигнала обычно представляют в виде последовательности трех операций: дискретизации, квантования и кодирования.

Операция дискретизации заключается в определении выборки моментов времени измерения сигнала. Операция квантования состоит в считывании значений координаты сигнала в выбранные моменты измерения с заданным уровнем точности, а операция кодирования — в преобразовании полученных измерений сигнала в соответствующие значения некоторого цифрового кода или кодовой комбинации, которые затем передаются по каналам связи.

Процедуру восстановления непрерывного сигнала из цифрового представления также можно представить в виде двух операций: декодирования и демодуляции. Операция декодирования выполняет операцию обратную операции кодирования, т.е. преобразует последовательность заданных значений кодовой комбинации (кодовых слов) в последовательность измерений, следующих друг за другом через заданные интервалы времени дискретизации. Операция демодуляции выполняет интерполяцию или восстановление непрерывного сигнала по его измерениям. Преобразование сигнала из цифровой формы в непрерывный сигнал осуществляется цифро-аналоговыми преобразователями (ЦАП). Считается, что система аналого-цифрового и цифро-аналогового преобразований адекватна сигналу, если восстановленный непрерывный сигнал (копия) соответствует исходному непрерывному сигналу (оригиналу) с заданной погрешностью.

  1. Квантование по уровню

При квантовании по уровню непрерывное множество значений функции x(t) заменяется множеством дискретных значений. Для этого в диапазоне непрерывных значений функции x(t) выбирается конечное число дискретных значений этой функции (дискретных уровней) и в процессе квантования значение функции x(t) в каждый момент времени заменяется ближайшим дискретным значением. В результате квантования образуется ступенчатая функция xg(t).

Квантование по уровню практически может осуществляться двумя способами. При первом способе квантования мгновенное значение функции x(t) заменяется меньшим дискретным значением. При втором способе  квантования мгновенное значение функции x(t) заменяется ближайшим меньшим или большим дискретным значением в зависимости от того, какое из этих значений ближе к мгновенному значению функции. В этом случае переход ступенчатой функции с одной ступени на другую происходит в те моменты, когда первоначальная непрерывная функция x(t) пересекает середину между соответствующими соседними дискретными уровнями.

Расстояние между дискретными соседними уровнями называется интервалом или шагом квантования

Различают равномерное квантование по уровню, при котором шаг квантования постоянен, и неравномерное квантование по уровню, когда шаг квантования непостоянен. На практике преимущественное применение получило равномерное квантование в связи с простотой его технической реализации.

  1. Квантование по времени

Рассмотрим сущность понятия дискретизации сигнала x(t) применительно к детерминированной функции.

Дискретизация сигнала x(t) связана с заменой промежутка изменения независимой переменной некоторым множеством точек, т.е. операции дискретизации соответствует отображение

x(t) x(ti)

x(t) – функция, описывающая сигнал

x(ti) – функция, описывающая сигнал, полученный в результате дискретизации,

то есть в результате дискретизации исходная функция x(t) заменяется совокупностью отдельных значений x(ti). По значениям x(ti) можно восстановить исходную функцию x(t) с некоторой погрешностью. Функция, полученная в результате восстановления (интерполяции) по значениям x(ti) , называется воспроизводящей и обозначается через V(t).

При обработке сигналов дискретизация по t должна производится таким образом, чтобы по отсчетным значениям x(ti) можно было получить воспроизводящую функцию V(t), которая с заданной точностью отображает исходную функцию x(t).

При дискретизации сигналов приходится решать вопрос о том, каков должен быть шаг дискретизации:

=ti-ti-1

Контрольные вопросы:

  1. Что понимают под линией связи?
  2. Какое устройство называется декодером?
  3. Какое устройство называется решающим?
  4. Какое устройство называются декодирующим?
  5. Что называют шагом квантования?
  6. Дайте определение квантования по уровню.
  7. Дайте определение квантования по времени.

                    Тема: Пропускная способность канала связи. Теорема Шеннона

Определим пропускную способность канала как максимальное количество информации, которое можно передавать по нему в единицу времени:

                       C = max{Ixy}/ tx     (бит/с)                                                  (1)

Для канала без помех справедливо условие Ixy = Hx, а потому его пропускная способность:

Cбп = max{Hx}/ tx   = log2m / tx                                                (2)    

В частном случае передачи двоичных разрядов (m = 2) справедливо

Сбп = 1/tx                                                        (3).

Для нас важно, как соотносится величина Сбп с потоком информации источника H`z, который определяется по формуле

H`z = Hz/tz        (бит/с)                                                (4).

Пропускная способность канала используется полностью, когда H`z = C. Между тем, уменьшение энтропии Hz может привести к сокращению информационного потока. Чтобы его увеличить, требуется сократить время tz. Если учесть, что

tz = tx * lср, где lср — средняя длина кода символа, то становится ясно: чтобы полнее использовать пропускную способность канала для любого источника, нужно рационально кодировать сообщения, по возможности сокращая величину lср.

 Если записать условие полного использования пропускной способности канала H`z = C в развернутом виде, то для канала без помех оно будет иметь вид:

                  Hz/tz = log2m/tx                                                     (5),  

а с учетом tz = tx * lср и log2m = 1 (при m=2) мы получим условие:

                  lср = Hz                                                              (6)      

По сути, доказательство этой так называемой теоремы Шеннона о кодировании для канала без помех сводится к нахождению процедуры, позволяющей получить требуемый код. Эта процедура, именуемая эффективным кодированием, была предложена самим Шенноном и в дальнейшем усовершенствована (с точки зрения удобства ее практического применения) Хаффменом.

 В обоих случаях речь идет о посимвольном кодировании и величина Hz имеет значение безусловной энтропии. В принципе можно пойти дальше и рассматривать кодирование цепочек символов. В этом случае Hz будет иметь смысл условной энтропии порядка l, где l — максимальная длина цепочки. О «цепочечном» кодировании речь впереди, а пока мы рассмотрим классический подход к эффективному кодированию на уровне символов.

Пропускная способность дискретного канала с помехами

Рассмотрим теперь вариант, когда помехи в канале вызывают появление ошибок с вероятностью p0. В этом случае из соотношения 3.1 следует:

       C = max {Hx — Hx/y}/ tx  = (log2m — Hx/y) / tx                                 (7)

 Рассмотрим наиболее распространенный случай так называемого двоичного симметричного канала. При  этом m = 2 (log2m = 1), а вероятности ошибки “переход «1» в «0” ” “переход «0» в «1» ” одинаковы.

 Если теперь рассмотреть в качестве случайного события передачу разряда кода с ошибкой (вероятность p0), то, используя формулу (9) для определения энтропии, получим:

Hx/y = Hy/x = -p0 log2p0 — (1 — p0) log2(1 — p0)                             (8)

С учетом этого (9) преобразуется к виду:

                   C =  [1 — p0log2p0 — (1 — p0)log2(1 — p0)]/tx                             (9)

 Таким образом, пропускная способность симметричного двоичного канала с помехами определяется только скоростью передачи разрядов кода (Vx = 1/tx) и вероятностью ошибок.

Клод Шеннон показал, что за счет кодирования пропускную способность канала с помехами также можно использовать максимально полно (напомним, что сама она будет ниже, чем у канала без помех).

Способ кодирования, который позволяет этого добиться, основан на использовании избыточных кодов, когда каждый информационный блок защищается контрольными разрядами и чем больше длина блока, тем меньше удельный вес этих избыточных разрядов, позволяющих обнаружить и исправить ошибки.

4. Пропускная способность непрерывного канала с помехами

 На рис. 1 была показана модель дискретного канала передачи данных. Напомним, что с помощью дискретизации и квантования к дискретному виду можно свести любое непрерывное сообщение. Однако, если шаг квантования dx и шаг дискретизации dt устремить к нулю, то из модели рис. 1 мы получим частный случай непрерывного канала.

 

Рис. 1

 Источник И передает в канал непрерывное сообщение Z(t).

 Формирователь сигналов Фс преобразует его в сигнал X (t), приспособленный для передачи по аналоговому каналу.

 В линии связи ЛС на сигнал воздействуют случайные аддитивные помехи e(t) (для помех такого типа справедливо соотношение Y(t) = X(t) + e(t)).

Устройство распознавания сигнала восстанавливает сообщение Z(t) по полученному Y(t).

В этой схеме стадия кодирования вообще не рассматривается. Однако подход (кстати, предложенный опять-таки Клодом Шенноном) основан на тех же принципах, что и для дискретного канала, потому нам целесообразно рассмотреть этот вопрос именно здесь.

Вернемся к определению пропускной способности канала связи:

                   Cбп = max{Ixy} / tx  = max{Hx } / tx                                  (10)    

Величина tx в нашем случае соответствует шагу дискретизации сигнала dt. Согласно теореме Котельникова, непрерывный сигнал можно полностью восстановить по его дискретным отсчетам, если шаг дискретизации dt вдвое меньше периода самой высокочастотной составляющей fm сигнала (dt = 1/2fm). Учитывая, что любой физический канал связи всегда имеет ограниченную полосу частот, которые он в состоянии пропустить, величину fm (а следовательно и dt) можно определить исходя из характеристик канала.

Если значение dx конечно, то непрерывный канал можно рассматривать как дискретный с объемом алфавита m = xm/dx + 1. Если к тому же в канале отсутствуют помехи (Hx/y = 0), то соотношение (4.11) можно преобразовать к виду:

          C = max {Hx} / dt = 2fm * log2m  = 2fm * log2 (xm/ dx + 1)                     (11)

         Отсюда видно, что пропускная способность непрерывного канала без помех (dx -> 0) стремится к бесконечности. Однако, в реальном канале помехи присутствуют всегда, при этом сколько бит информации удается «нагрузить» на один дискретный отсчет, зависит от соотношения мощности полезного сигнала на входе приемника и помехи Pс/Pп.

Клод Шеннон показал, что в случае наиболее «неприятной» помехи типа «белый шум», чья мощность равномерно распределена во всей полосе частот канала, справедливо соотношение:

    Cn = fm log2(Pс/Pп + 1)                                       (12)     

Доказательство этой теоремы Шеннона о пропускной способности непрерывного канала весьма громоздко и мы не станем его рассматривать. Остановимся на анализе самой формулы. Итак  пропускная способность непрерывного канала с помехами:

— пропорциональна ширине полосы частот канала fm;

— возрастает с увеличением отношения полезный сигнал/помеха (в этом случае будет уверенно распознаваться на фоне помех);

— не равна нулю даже при Pc << Pп (то-есть, передачу информации принципиально можно вести сигналами более слабыми, чем помехи).

Мы вернемся к использованию соотношения Шеннона 4.13 при рассмотрении вопросов передачи сигналов.

Контрольные вопросы:

  1. Определите пропускную способность непрерывного канала без помех.
  2. Определите пропускную способность непрерывного канала с помехами.
  3. Опишите назначение: источника, формирователя сигналов.
  4. Как воздействует сигнал в линии связи?
  5. Как работает устройство распознавания?

Тема: Методы повышения помехозащищенности и помехоустойчивости передачи и приема данных.

Одна и та же линия связи может использоваться для передачи сигналов между многими источниками и приемниками, т.е. линия связи может обслуживать несколько каналов.

При синтезе систем передачи информации приходится решать две основные проблемы, связанные с передачей сообщений:

  1. обеспечение помехоустойчивости передачи сообщений
  2. обеспечение высокой эффективности передачи сообщений

Под помехоустойчивостью понимается способность информации противостоять вредному воздействию помех. При данных условиях, т.е. при заданной помехе, помехоустойчивость определяет верность передачи информации. Под верностью  понимается мера соответствия принятого сообщения (сигнала) переданному сообщению (сигналу).

Под эффективностью системы передачи информации понимается способность системы обеспечивать передачу заданного количества информации наиболее экономичным способом. Эффективность характеризует способность системы обеспечить передачу данного количества информации с наименьшими затратами мощности сигнала, времени и полосы частот.

Теория информации устанавливает критерии оценки помехоустойчивости и эффективности  информационных систем, а также указывает общие пути повышения помехоустойчивости и эффективности.

Повышение помехоустойчивости практически всегда сопровождается ухудшением эффективности и наоборот.

Методы повышения помехоустойчивости

В основах всех способов повышения помехоустойчивости информационных систем лежит использование определенных различий  между полезным сигналом и помехой. Поэтому для борьбы с помехами необходимы априорные сведения о свойствах помехи и сигнала.

В настоящее время известно большое число способов повышения помехоустойчивости систем. Эти способы удобно разбить на две группы.

I группа – основана на выборе метода передачи сообщений.

II группа – связана с построением помехоустойчивых приемников.

Простым и применяемым способом повышения помехоустойчивости является увеличение отношения сигнал/помеха за счет увеличения мощности передатчика. Но этот метод может оказаться экономически не выгодным, так как связан с существенным ростом сложности и стоимости оборудования. Кроме того, увеличение мощности передачи сопровождается усилением мешающего действия данного канала на другие.

Важным способом повышения помехоустойчивости передачи непрерывных сигналов  является рациональный выбор вида модуляции сигналов. Применяя виды модуляции, обеспечивающие значительное расширение полосы частот сигнала, можно добиться существенного повышения помехоустойчивости передачи.

Радикальным способом повышения помехоустойчивости передачи дискретных сигналов является использование специальных помехоустойчивых кодов. При этом имеется два пути повышения помехоустойчивости кодов:

  1. Выбор таких способов передачи, которые обеспечивают меньшую вероятность искажения кода;
  2. Увеличение корректирующих свойств кодовых комбинаций. Этот путь связан с использованием кодов, позволяющих обнаруживать и устранять искажения  в кодовых комбинациях. Такой способ кодирования связан с введением в код дополнительных, избыточных символов, что сопровождается увеличением времени передачи или частоты передачи символов кода.

Повышение помехоустойчивости передачи может быть также достигнуто путем повторной передачи одного и того же сообщения.  На приемной стороне сравниваются полученные сообщения и в качестве истинных принимаются те, которые имеют наибольшее число совпадений. Чтобы исключить неопределенность при обработке принятой информации и обеспечить отбор по критерию большинства, сообщение должно повторяться не менее трёх раз. Этот способ повышения помехоустойчивости связан с увеличением времени передачи.

Системы с повторением передачи дискретной информации делятся на системы с групповым суммированием, у которых сравнение производится по кодовым комбинациям, и на системы с посимвольным суммированием, у которых сравнение осуществляется по символам кодовых комбинаций. Посимвольная проверка является более эффективной, чем групповая.

Разновидность систем, у которых повышение помехоустойчивости достигается за счет увеличения времени передачи, являются системы с обратной связью. При наличии искажений в передаваемых сообщениях информация, поступающая по обратному каналу, обеспечивает повторение передачи. Наличие обратного канала приводит к усложнению системы. Однако в отличие от систем с повторением передачи в системах с обратной связью повторение передачи будет иметь место лишь в случае обнаружения искажений в передаваемом сигнале, т.е. избыточность в целом оказывается меньшей.

Помехоустойчивый прием состоит в использовании избыточности, а также априорных сведений о сигналах и помехах для решения оптимальным способом задачи приема: обнаружения сигнала, различия сигналов или восстановления сообщений. В настоящее время для синтеза оптимальных приемников широко используется аппарат теории статистических решений.

Ошибки приемника уменьшаются с увеличением отношения сигнал/помеха на входе приемника. В связи с этим часто производят предварительную обработку принятого сигнала с целью увеличения отношений полезной составляющей к помехе. К таким методам предварительной обработки сигналов относится метод ШОУ (сочетание широкополосного усилителя, ограничителя и узкополосного усилителя), селекция сигналов по длительности, метод компенсации помехи, метод фильтрации, корреляционный метод, метод накопления и др.

Рассмотрим простые практические способы построения кодов, способных обнаруживать и исправлять ошибки. Ограничимся рассмотрением двоичных каналов и равномерных кодов.

Метод контроля четности. Это простой способ обнаружения некоторых из возможных ошибок. Будем использовать в качестве разрешенных половину возможных кодовых комбинаций, а именно те из них, которые имеют четное число единиц (или нулей). Однократная ошибка при передаче через канал неизбежно приведет к нарушению четности, что и будет обнаружено на выходе канала. Очевидно, что трехкратные, пятикратные и вообще ошибки нечетной кратности ведут к нарушению четности и обнаруживаются этим методом, в то время как двукратные, четырехкратные и вообще ошибки четной кратности – нет.

Практическая техника кодирования методом контроля четности следующая. Из последовательности символов, подлежащих передаче через канал, выбирается очередной блок из k-1символов, называемых информационными, и к нему добавляется  k-й символ, называемый контрольным. Значение контрольного символа выбирается так, чтобы обеспечить четность получаемого кодового слова, т.е. чтобы сделать его разрешенным.

Метод контроля четности представляет значительную ценность и широко применяется в тех случаях, в которых вероятность появления более одной ошибки пренебрежимо мала (во многих случаях, если наверняка знать, что кодовое слово принято с ошибкой, имеется возможность запросить повторную передачу). В то же время избыточность кода увеличивается минимально и незначительно при больших kk/( k-1)раз).

Метод контрольных сумм. Рассмотренный выше метод контроля четности может быть применен многократно для различных комбинаций разрядов передаваемых кодовых слов – и это позволит не только обнаруживать, но и исправлять определенные ошибки.

Контрольные вопросы:

  1. Дайте определение помехоустойчивости.
  2. Что понимают под эффективностью системы?
  3. Перечислите методы повышения помехоустйчивости.
  4. Расскажите о методе контроля четности.
  5. Что собой представляет метод контрольных сумм?

Тема: Понятие об оптимальном кодировании   информации

Большинство кодов, используемых при кодировании информации без учета статистических свойств источника и помех в канале связи, основано на системах счисления (двоичной, десятичной, восьмеричной, шестнадцатеричной).

Общепризнанным в настоящее время является позиционный принцип образования системы счисления. Значение каждого символа (цифры) зависит от его положения — позиции в ряду символов, представляющих число. Единица каждого следующего разряда больше единицы предыдущего в т раз, где т — основание системы счисления. Полное число получаем, суммируя значения по разрядам. (Пример: в десятичном коде 11110, т =10; младший разряд — 1, второй — 10, третий — 100, то есть единица старшего разряда в десять раз больше единицы предыдущего разряда — единицы, десятки, сотни; также и в других системах счисления.)

Чем больше основание системы счисления, тем меньшее число разрядов требуется для представления данного числа, а следовательно, и меньшее время для его передачи. Однако с ростом основания усложняются устройства передачи и приема сигналов, так как логические элементы в этом случае должны иметь большее число устойчивых состояний. Если учитывать оба эти обстоятельства, то целесообразно выбрать систему, обеспечивающую минимум произведения основания кода т на количество разрядов n для выражения любого числа. Найдем этот минимум по графику для большого числа 6000010.

Рисунок 1.  График зависимости числа разрядов п от основания кода т для числа 60000

Из графика следует, что наиболее эффективной системой является троичная. Незначительно уступают ей двоичная и четверичная. Системы с основанием десять и более значительно хуже.

С точки зрения удобства физической реализации логических элементов и простоты выполнения в них арифметических и логических действий, предпочтение необходимо отдать двоичной системе.

Действительно, арифметические операции в двоичной системе достаточно просты: сложение         вычитание         умножение

0+0=0;            0 — 0=0;         0·0=0;

0+1=1;                   1 — 0=1;         0·1=1;

1+0=1;             1 — 1=0;         1·0=1;

1+1=10;           10 — 1=1         1·1=1

Сложение по модулю в двоичной системе также просто:

00=0;

01=1;

11=0;

10=1

Итак, для передачи и проведения логических и арифметических операций наиболее целесообразен двоичный код. Однако он неудобен при вводе и выводе информации, так как человеку трудно оперировать с непривычными двоичными числами. Кроме того, запись таких чисел на бумаге оказывается слишком громоздкой. Поэтому помимо двоичной получили распространение системы, которые, с одной стороны, легко сводятся как к двоичной, так и к десятичной системе, а с другой — дают более компактную запись. К таким системам относятся восьмеричная, шестнадцатеричная и двоично-десятичная.

В восьмеричной системе для записи всех возможных чисел используется восемь цифр — от нуля до семи включительно. Перевод чисел из восьмеричной системы в двоичную крайне прост и сводится к замене каждой восьмеричной цифры равным ей трехразрядным двоичным числом. Например, для восьмеричного числа 745 получим:

Поскольку в восьмеричной системе числа выражаются короче, чем в двоичной, она широко используется как вспомогательная система при программировании (особенно для микро- и мини-ЭВМ в машинных кодах).

Чтобы сохранить преимущества двоичной системы, используют двоично-десятичные коды. В таком коде каждая цифра десятичного числа записывается в виде четырехразрядного двоичного числа. С помощью четырех разрядов можно образовать шестнадцать различных комбинаций, из которых любые десять могут составить двоично-десятичный код. Наиболее распространен код 8-4-2-1. Этот код относится к взвешенным кодам. Цифры в названии кода означают вес единиц в соответствующих двоичных разрядах. Он соответствует первым десяти комбинациям натурального двоичного кода (табл. 1).

Таблица 1

Число в десятичном

Коде

Двоично-десятичный

код 8-4-2-1

Двоично-десятичный

код 5-1-2-1

0

0000

0000

1

0001

0001

2

0010

0010

3

0011

0011

4

0100

0111

5

0101

1000

6

0110

1001

7

0111

1010

8

1000

1011

    9

     1001

1111

Код 8-4-2-1 обычно используется как промежуточный при введении в вычислительную машину данных, представленных в десятичном коде.

Перевод чисел из десятичного в двоично-десятичный код осуществляется перфоратором в процессе переноса информации на перфоленту или перфокарту. Последующее преобразование в двоичный код осуществляется по специальной программе в самой машине. Двоично-десятичные коды с весами 5-1-2-1 и 2-4-2-1 используются при поразрядном уравновешивании в цифровых измерительных приборах (цифровые вольтметры и т.п.).

Недостатки взвешенных кодов: при передаче информации по каналам связи под действием помех отдельные элементы кода могут так исказиться, что будут приняты неверно. Например, вместо «0» будет принят элемент «1» или наоборот. Если будет искажен старший разряд, то ошибка будет значительно больше, чем при искажении младшего разряда. С этой точки зрения лучше применять невзвешенный код, у которого ошибки, вызванные помехами, были бы одинаковыми для любого разряда.

В невзвешенных кодах позициям (разрядам) кодовой комбинации не приписывают определенных весов. Вес имеет лишь вся кодовая комбинация в совокупности. Рассмотрим невзвешенный двоичный рефлексный код Грея (табл. 2).

Таблица 2

Десятичное

число

Двоичный код

вес 8-4-2-1

Код Грея

0

0000

0000

1

0001

0001

2

0010

0011

3

0011

0010

4

0100

0110

5

0101

0111

6

0110

0101

7

0111

0100

8

1000

1100

9

1001

1101

15

1111

1000

Правило получения кода Грея: кодовую комбинацию натурального двоичного кода складывают по модулю 2 с такой же комбинацией, сдвинутой на один разряд вправо, при этом младший разряд сдвинутой комбинации отбрасывается.

Характерные особенности кода Грея:

1) каждая последующая комбинация всегда отличается от предыдущей только в одной позиции (в одном разряде);

2) смена значений элементов в каждом разряде (1 на 0 или 0 на 1) при переходе от комбинации к комбинации в коде Грея происходит вдвое реже, чем в натуральном двоичном коде. Это свойство кода Грея позволяет получить точность кодирования выше по сравнению с натуральным двоичным кодом при том же быстродействии схемы кодирования;

3) при сложении двух соседних комбинаций кода Грея по модулю 2 (mod2) число единиц равно числу разрядов минус три (n-3). Это свойство кода Грея можно использовать для проверки правильности принятых комбинаций.

В коде Грея можно выделить оси симметрии (оси отражения), относительно которых наблюдается идентичность элементов в некоторых разрядах. Так, например, имеет место симметрия относительно оси, проведенной между числами 7 и 8 (идентичны три символа младших разрядов). Эта особенность и послужила основанием для введения термина «рефлексный», то есть отраженный код.

Рассмотренные свойства кода Грея показывают, что он удобен для аналого-цифрового преобразования различных непрерывных сообщений и их передачи по каналам связи (сервосистемы).

Недостатком кода Грея и других рефлексных кодов является то, что эти коды невзвешенные, их трудно обрабатывать с помощью ЭВМ, так как сложнее выполнять декодирование.

Преобразование кода Грея в натуральный двоичный код выполняется по правилу: старший разряд записывается без изменения, каждый следующий символ кода Грея нужно инвертировать, если в натуральном коде перед этим была получена «1», и оставить без изменения, если в натуральном коде был получен «0». (Пример: 910=1101гр =10012).

Контрольные вопросы:

  1. Что такое триады?
  2. Что такое тетрады?
  3. Достоинства и недостатки взвещенных кодов.
  4. Характерные особенности кода Грея.
  5. Правила преобразования кода Грея.

Тема: Кодирование символьной и числовой информации.

Одна и та же информация может быть представлена (закодирована) в нескольких формах. C появлением компьютеров возникла необходимость кодирования всех видов информации, с которыми имеет дело и отдельный человек, и человечество в целом. Но решать задачу кодирования информации человечество начало задолго до появления компьютеров. Грандиозные достижения человечества — письменность и арифметика — есть не что иное, как система кодирования речи и числовой информации. Информация никогда не появляется в чистом виде, она всегда как-то представлена, как-то закодирована.

Двоичное кодирование – один из распространенных способов представления информации. В вычислительных машинах, в роботах и станках с числовым программным управлением, как правило, вся информация, с которой имеет дело устройство, кодируется в виде слов двоичного алфавита.

Кодирование символьной (текстовой) информации.

Основная операция, производимая над отдельными символами текста — сравнение символов.

При сравнении символов наиболее важными аспектами являются уникальность кода для каждого символа и длина этого кода, а сам выбор принципа кодирования практически не имеет значения.

Для кодирования текстов используются различные таблицы перекодировки. Важно, чтобы при кодировании и декодировании одного и того же текста использовалась одна и та же таблица.

Таблица перекодировки — таблица, содержащая упорядоченный некоторым образом перечень кодируемых символов, в соответствии с которой происходит преобразование символа в его двоичный код и обратно.

Наиболее популярные таблицы перекодировки: ДКОИ-8, ASCII, CP1251, Unicode.

Исторически сложилось, что в качестве длины кода для кодирования символов было выбрано 8 бит или 1 байт. Поэтому чаще всего одному символу текста, хранимому в компьютере, соответствует один байт памяти.

Различных комбинаций из 0 и 1 при длине кода 8 бит может быть 28 = 256, поэтому с помощью одной таблицы перекодировки можно закодировать не более 256 символов. При длине кода в 2 байта (16 бит) можно закодировать 65536 символов.

Кодирование числовой информации.

Сходство в кодировании числовой и текстовой информации состоит в следующем: чтобы можно было сравнивать данные этого типа, у разных чисел (как и у разных символов) должен быть различный код. Основное отличие числовых данных от символьных заключается в том, что над числами кроме операции сравнения производятся разнообразные математические операции: сложение, умножение, извлечение корня, вычисление логарифма и пр. Правила выполнения этих операций в математике подробно разработаны для чисел, представленных в позиционной системе счисления.

Основной системой счисления для представления чисел в компьютере является двоичная позиционная система счисления.

Кодирование текстовой информации

В настоящее время, большая часть пользователей, при помощи компьютера обрабатывает текстовую информацию, которая состоит из символов: букв, цифр, знаков препинания и др. Подсчитаем, сколько всего символов и какое количество бит нам нужно.

10 цифр, 12 знаков препинания, 15 знаков арифметических действий, буквы русского и латинского алфавита, ВСЕГО: 155 символов, что соответствует 8 бит информации.

Суть кодирования заключается в том, что каждому символу ставят в соответствие двоичный код от 00000000 до 11111111 или соответствующий ему десятичный код от 0 до 255.

Необходимо помнить, что в настоящее время для кодировки русских букв используют пять различных кодовых таблиц (КОИ — 8, СР1251, СР866, Мас, ISO), причем тексты, закодированные при помощи одной таблицы не будут правильно отображаться в другой

Основным отображением кодирования символов является код ASCII — American Standard Code for Information Interchange- американский стандартный код обмена информацией, который представляет из себя таблицу 16 на 16, где символы закодированы в шестнадцатеричной системе счисления.

Контрольные вопросы:

  1. Как происходит кодирование символьной  информации?
  2. Как происходит кодирование числовой  информации?
  3. Как происходит кодирование (текстовой) информации?

Тема: Кодирование графической информации. 

Важным этапом кодирования графического изображения является разбиение его на дискретные элементы (дискретизация).

Основными способами представления графики для ее хранения и обработки с помощью компьютера являются растровые и векторные изображения

Векторное изображение представляет собой графический объект, состоящий из элементарных геометрических фигур (чаще всего отрезков и дуг). Положение этих элементарных отрезков определяется координатами точек и величиной радиуса. Для каждой линии указывается двоичные коды типа линии (сплошная, пунктирная, штрихпунктирная), толщины и цвета.

Растровое изображение представляет собой совокупность точек (пикселей), полученных в результате дискретизации изображения в соответствии с матричным принципом.

Матричный принцип кодирования графических изображений заключается в том, что изображение разбивается на заданное количество строк и столбцов. Затем каждый элемент полученной сетки кодируется по выбранному правилу.

Pixel (picture element — элемент рисунка) — минимальная единица изображения, цвет и яркость которой можно задать независимо от остального изображения.

В соответствии с матричным принципом строятся изображения, выводимые на принтер, отображаемые на экране дисплея, получаемые с помощью сканера.

Качество изображения будет тем выше, чем «плотнее» расположены пиксели, то есть чем больше разрешающая способность устройства, и чем точнее закодирован цвет каждого из них.

Для черно-белого изображения код цвета каждого пикселя задается одним битом.

Если рисунок цветной, то для каждой точки задается двоичный код ее цвета.

Поскольку и цвета кодируются в двоичном коде, то если, например, вы хотите использовать 16-цветный рисунок, то для кодирования каждого пикселя вам потребуется 4 бита (16=24), а если есть возможность использовать 16 бит (2 байта) для кодирования цвета одного пикселя, то вы можете передать тогда 216 = 65536 различных цветов. Использование трех байтов (24 битов) для кодирования цвета одной точки позволяет отразить 16777216 (или около 17 миллионов) различных оттенков цвета — так называемый режим “истинного цвета” (True Color). Заметим, что это используемые в настоящее время, но далеко не предельные возможности современных компьютеров.

Контрольные вопросы:

  1. Что такое дискретизация?
  2. Что такое растровое изображение?
  3. Что такое векторное изображение?
  4. Что называется пикселем?
  5. В чем заключается матричный принцип кодирования графических изображений?

Тема: Кодирование звуковой информации. Кодирование видеоинформации

1. Кодирование звуковой информации.

Человек выражает свои мысли в виде предложений, составленных из слов. Они являются алфавитным представлением информации. Основу любого языка составляет алфавит — конечный набор различных знаков (символов) любой природы, из которых складывается сообщение.

Для представления информации могут использоваться разные коды и, соответственно, надо знать определенные правила — законы записи этих кодов, т.е. уметь кодировать.

Код — набор условных обозначений для представления информации.

Кодирование — процесс представления информации в виде кода.

Всем известно, что для общения друг с другом мы используем код — русский язык. При разговоре этот код передается звуками, при письме — буквами. Водитель передает сигнал с помощью гудка или миганием фар. Вы встречаетесь с кодированием информации при переходе дороги в виде сигналов светофора. Таким образом, кодирование сводиться к использованию совокупности символов по строго определенным правилам.

Нельзя не сказать о том, что одно из основных достоинств компьютера связано с тем, что это удивительно универсальная машина. Каждый, кто хоть когда-нибудь с ним сталкивался, знает, что занятие арифметическими подсчетами составляет совсем не главный метод использования компьютера. Компьютеры прекрасно воспроизводят музыку и видеофильмы, с их помощью можно организовывать речевые и видеоконференции в Интернет, создавать и обрабатывать графические изображения, а возможность использования компьютера в сфере компьютерных игр на первый взгляд выглядит совершенно несовместимой с образом суперарифмометра, перемалывающего сотни миллионов цифр в секунду.

Итак, кодирование информации – это процесс формирования определенного представления информации. В более узком смысле под термином «кодирование» часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.

Интересен тот факт, что с начала 90-х годов персональные компьютеры получили возможность работать со звуковой информацией. Каждый компьютер, имеющий звуковую плату, микрофон и колонки, может записывать, сохранять и воспроизводить звуковую информацию.

Звук представляет собой звуковую волну с непрерывно меняющейся амплитудой и частотой. Чем больше амплитуда, тем он громче для человека, чем больше частота сигнала, тем выше тон. Программное обеспечение компьютера в настоящее время позволяет непрерывный звуковой сигнал преобразовывать в последовательность электрических импульсов, которые можно представить в двоичной форме, а именно по такой схеме:

Процесс преобразования звуковых волн в двоичный код в памяти компьютера:


wpe9.gif (2090 bytes)

Процесс воспроизведения звуковой информации, сохраненной в памяти ЭВМ:

wpeA.gif (2063 bytes)

Описанный способ кодирования звуковой информации достаточно универсален, он позволяет представить любой звук и преобразовывать его самыми разными способами. Но бывают случаи, когда выгодней действовать по-иному.

Издавна используется довольно компактный способ представления музыки – нотная запись. В ней специальными символами указывается, какой высоты звук, на каком инструменте и как сыграть. Фактически, ее можно считать алгоритмом для музыканта, записанным на особом формальном языке. В 1983 ведущие производители компьютеров и музыкальных синтезаторов разработали стандарт, определивший такую систему кодов. Он получил название MIDI.

Конечно, такая система кодирования позволяет записать далеко не всякий звук, она годится только для инструментальной музыки. Но есть у нее и неоспоримые преимущества: чрезвычайно компактная запись, естественность для музыканта (практически любой MIDI-редактор позволяет работать с музыкой в виде обычных нот), легкость замены инструментов, изменения темпа и тональности мелодии.

Есть и другие, чисто компьютерные, форматы записи музыки. Среди них – формат MP3, позволяющий с очень большим качеством и степенью сжатия кодировать музыку, при этом вместо 18–20 музыкальных композиций на стандартном компакт-диске (CDROM) помещается около 200. Одна песня занимает, примерно, 3,5 Mбайт, что позволяет пользователям сети Интернет легко обмениваться музыкальными композициями.

2. Кодирование видеоинформации.

Особое внимание также уделяют кодированию видеоинформации. Чтобы хранить и обрабатывать видео на компьютере, необходимо закодировать его особым образом.

Изображение в видео состоит из отдельных кадров, которые меняются с определенной частотой. Кадр кодируется как обычное растровое изображение, то есть разбивается на множество пикселей. Закодировав отдельные кадры и собрав их вместе, мы сможем описать все видео.

Отметим то, что видеоданные характеризуются частотой кадров и экранным разрешением. Скорость воспроизведения видеосигнала составляет 30 или 25 кадров в секунду, в зависимости от телевизионного стандарта. Наиболее известными из таких стандартов являются: SECAM, принятый в России и Франции, PAL, используемый в Европе, и NTSC, распространенный в Северной Америке и Японии.

Разрешение для стандарта NTSC составляет 768 на 484 точек, а для PAL и SECAM – 768 на 576 точек. Но не все пиксели используются для хранения видеоинформации. Так, при стандартном разрешении 768 на 576 пикселей, на экране телевизора отображается всего 704 на 540 пикселей. Поэтому для хранения видеоинформации в компьютере или цифровой видеокамере, размер кадра может отличаться от телевизионного. Например, в формате Digital Video или, как его еще называют DV, размер кадра составляет 720 на 576 пикселей. Такое же разрешение имеет кадр стандарта DVD Video. Размер кадра формата Video-CD составляет 352 на 288 пикселей.

Если представить каждый кадр изображения как отдельный рисунок, то видеоизображение будет занимать очень большой объем, например, одна секунда записи в системе PAL будет занимать 25 Мбайт, а одна минута – уже 1,5 Гбайт. Поэтому на практике используются различные алгоритмы сжатия для уменьшения скорости и объема потока видеоинформации.

Кодирование видеоинформации еще более сложная проблема, чем кодирование звуковой информации, так как нужно позаботиться не только о дискретизации непрерывных движений, но и о синхронизации изображения со звуковым сопровождением. В настоящее время для этого используется формат, которой называется AVI (Audio-Video Interleaved — чередующееся аудио и видео).

Основные мультимедийные форматы AVI и WAV очень требовательны к памяти. Поэтому на практике применяются различные способы компрессии, то есть сжатия звуковых и видеокодов. В настоящее время стандартными стали способы сжатия, предложенные MPEG (Moving Pictures Experts Group — группа экспертов по движущимся изображениям). В частности, стандарт MPEG-1 описывает несколько популярных в настоящее время форматов записи звука. Так, например, при записи в формате МР-3 при практически том же качестве звука требуется в десять раз меньше памяти, чем при использовании формата WAV. Существуют специальные программы, которые преобразуют записи звука из формата WAV в формат МР-3. Стандарт MPEG-2 описывает методы сжатия видеозаписей, которые обеспечивают телевизионное качество изображения и стереозвуковое сопровождение и имеют приемлемые требования к памяти. Совсем недавно был разработан стандарт MPEG-4, применение которого позволяет записать полнометражный цветной фильм со звуковым сопровождением на компакт-диск обычных размеров и качества.

Контрольные вопросы:

  1. Что такое код?
  2. Что понимают под кодированием?
  3. Как происходит кодирование звуковой информации?
  4. Как происходит кодирование графической информации?
  5. Какие стандарты кодирования видеоинформации существуют?

Тема: Сжатие графической и видеоинформации. Методы сжатия.

  1. Обзор подходов к сжатию информации

Как уже было сказано, дискретная форма представления информации является наиболее общей и универсальной. В виде совокупности символов, принадлежащих к ограниченному алфавиту, можно представить как текст или массивы чисел, так и оцифрованные звук и изображение. С учетом этого очевидно, что должны существовать универсальные методы сжатия данных (цифровой информации), применимые ко всем ее разновидностям. В силу своей универсальности эти методы должны исключать потерю информации (такая потеря может быть допустима при передаче, например мелкой детали изображения, но неприемлема, когда речь идет, скажем, о коде программы). С другой стороны, в ряде приложений общие методы наверняка не будут наиболее эффективными. Например, в силу особенностей зрительного и слухового восприятия, некоторое «огрубление» изображения или звука может оказаться малозаметным, при этом выигрыш в объеме передаваемых данных окажется значительным. В этих случаях уместно использовать специальные методы сжатия с потерями (рис.5.1).

При кодировании со сжатием без потерь выделяются две разновидности методов: Первая основана на раздельном кодировании символов. Основная идея состоит в том, что символы разных типов встречаются неодинаково части и если кодировать их неравномерно, — так, чтобы короткие битовые последовательности соответствовали часто встречающимся символам, — то в среднем объем, кода будет меньше. Такой подход, именуемый, статистическим кодированием, реализован, в частности, в широко распространенном коде Хаффмана, о котором мы расскажем подробно ниже.

Очевидно, что посимвольное кодирование не использует такого важного резерва сжатия данных, как учет повторяемости последовательностей (цепочек) символов.

Простейший вариант учета цепочек – так называемое «кодирование повторов» или код RLE, когда последовательность одинаковых символов заменяется парой – «код символа + количество его повторов в цепочке». В большинстве случаев цепочки  одинаковых символов встречаются нечасто. Однако, например, при кодировании черно-белых растровых изображений, каждая строка которых состоит из последовательных черных или белых точек, такой подход оказывается весьма эффективным (он широко применяется при факсимильной передаче документов). Кроме того, кодирование повторов нередко используется как составной элемент более сложных алгоритмов сжатия.

Гораздо более универсальным является алгоритм, позволяющий эффективно кодировать повторяющиеся цепочки разных символов, имеющие при этом произвольную длину. Такой алгоритм был разработан Лемпелем и Зивом и применяется в разных версиях в большинстве современных программ-архиваторов. Идея алгоритма состоит в том, что цепочка символов, уже встречавшаяся в передаваемом сообщении, кодируется ссылкой на боле раннюю (при этом указываются «адрес» начала такой цепочки в «словаре» сообщения и ее длина). Ниже мы обсудим особенности алгоритма  Лемпеля-Зива.

Специализированные методы сжатия с потерями информации, естественно принципиально различаются для графики и звука.

К методам сжатия изображений относятся «блочный» алгоритм JPEG основанный на независимом «огрублении» небольших фрагментов изображений (квадраты 8х8 пикселей). Здесь с ростом степени сжатия проявляется мозаичность изображения. Блочный метод JPEG (разработанный специальной группой международного комитета по стандартизации) получил сейчас повсеместное распространение и ниже мы рассмотрим его подробнее. Достигается степень сжатия – в среднем в десятки раз.

При волновом сжатии в отличие от блочного изображение как бы «размывается» (чем выше степень сжатия, тем более нечетки границы и детали). При передаче данных получаемое изображение постепенно «проявляется» в деталях. Это позволяет получателю самому выбирать необходимый компромисс между качеством и скоростью получения изображения, что очень удобно, например в Интернет. К тому же «размытость» не столь резко воспринимается глазом как потеря качества по сравнению с «мозаичностью». Так что при субъективно близком уровне качества волновой метод дает  большую степень сжатия по сравнению  с «блочным». Именно такой подход реализован в новом стандарте JPEG 2000.

Наконец, фрактальное сжатие основывается на том, что в изображении можно выделить фрагменты, повороты и масштабирование которых позволяет многократно использовать их при построении всей «картинки». Выделение и построение математического описания таких элементов-фракталов – трудоемкая в вычислительном отношении задача. Зато высокая степень сжатия  (в сотни раз) и быстрота построения изображения по его фрактальному описанию делают метод очень удобным, когда не требуется быстрота компрессии. Например, этот метод удобно использовать при записи изображений на CD-ROM.

Наконец, методы сжатия звука существенно различаются в зависимости от того, насколько хорошо известны специфические особенности его источника. Примерами источников, чьи особенности решающим образом влияют на характер звука, являются человеческий речевой аппарат и музыкальные инструменты. Для них эффективным способом сжатия звуковой информации является моделирование, когда передаются не характеристика звука, а параметры модели его источника.

Что касается методов сжатия звука от произвольного источника, мы рассмотрим их ниже.

2. Эффективное посимвольное кодирование для сжатия данных.

Основные моменты сводятся к следующему:

  • идея такого кодирования базируется на том, чтобы использовать для часто встречающихся символов более короткие кодовые цепочки, а для редких — более длинные. В результате средняя длина кода  будет меньше, чем при равномерном кодировании;
  • согласно теореме Шеннона, наилучшее кодирование позволяет сократить lср. до величены энтропии Н, подсчитанной для данного набора символов;
  • неравномерное кодирование позволяет автоматически устранить избыточность, связанную с тем, что количество символов в алфавите может быть не кратно степени двойки (так, например, чтобы закодировать одинаковым числом разрядов 5 разновидностей символов потребуется 3 бита, так же как и для 8 символов).

Идея неравномерного кодирования, в котором длина кодовой цепочки зависит от частоты появления соответствующего символа, реализована еще в знаменитой «азбуке Морзе». Однако там наряду с «точками» и «тире» использовался третий кодовый символ – разделитель «пауза». Если ограничиться только «O» и «1», то при построении кода необходимо учесть дополнительное требование: чтобы все кодовые цепочки однозначно выделялись в непрерывном потоке битов, ни одна из них не должна входить как начальный участок в кодовую, цепочку  другого символа. Такое свойство кода называется префиксностью.

Наибольшее распространение получил способ построения эффективного кода предположенный Хаффменом. Рассмотрим его на примере. Пусть задан алфавит из 5 разновидностей символов Z1 – Z5, и их вероятности. В таблице 5.1 наряду с этими исходными данными приведены так же результаты кодирования по Хаффмену: кодовые цепочки Ki их длинны li. Процедуру построения кода иллюстрирует таблица и рисунок 1

На первом этапе  символы упорядочивают по убыванию вероятностей, а затем  выполняют несколько шагов «объединения», на каждом из которых суммируются вероятности наиболее редко встречающихся символов и столбец вероятностей  пересортировывается .

Пример кода Хаффмена

                                                           1

Zi

Pi

Ki

li

Z1

Z2

Z3

Z4

Z5

0,25

0,17

0,08

0,35

0,15

10

00

010

11

011

2

2

3

2

3

lср

На втором этапе строится «дерево кода», ветви которого отображают в обратном порядке процесс «объединения вероятностей». При построении дерева принимается правило соответствия большей вероятности одному из направлений ветви (например «левому») и определенному значению бита кода (например, «1») . Цепочки битов от «корня» до конца каждой ветви соответствуют кодам исходных символов (табл.5.1 – 5.2).

Таблица 2 Объединение вероятностей символов

Zi

Pi

Шаги объединения

Ki

1

2

3

4

Z1

Z2

Z3

Z4

Z5

0,35

0,25

0,17

0,15

0,08

0,35

0,25

0,23

0,17

0,40

0,35

0,25

0,60

0,40

1,00

11

10

00

011

010

Процедура кодирования сводится к выбору из кодовой таблицы цепочек, соответствующих каждому символу источника. Декодирование предусматривает выделение в битовом потоке кодов символов и их расшифровку в соответствии с таблицей.

Код  Хаффмена может быть двухпроходным и однопроходным. Первый строится по результатам подсчета частот (вероятностей) появления различных символов в данном сообщении. Второй использует готовую таблицу кодирования, построенную на основе вероятностей символов в сообщениях похожего типа. Например, кодирование текста на русском языке в первом случае включает его предварительный анализ, подсчет вероятностей символов, построение дерева кода и таблицы кодирования индивидуально для данного сообщения. Во втором случае будет работать готовая таблица, построенная по результатам анализа множества русскоязычных текстов. Двухпроходный код более полно использует возможности сжатия. Однако, при этом вместе с сообщением нужно передавать и кодовую таблицу. Однопроходный код не оптимален, однако прост в использовании, поэтому на практике обычно применяют именно его.

В целом код Хаффмена проигрывает по сравнению с «цепочечными» кодами и его редко используют самостоятельно, однако он часто фигурирует как элемент более сложных алгоритмов сжатия.

3 Сжатие информации с учетом цепочек символов по Лемпелю-Зиву.

Очевидно, что посимвольное кодирование не использует резервы сжатия информации, связанные с повторяемостью цепочек символов. Так например, в исходном тексте программы на  алгоритмическом языке  часто встречаются повторяющиеся наименования операторов или идентификаторы, которые в принципе можно закодировать короткими битовыми последовательностями.

Наиболее удачным алгоритмом сжатия, основанным на таком подходе является алгоритм Лемпеля-Зива, который в разных модификациях используется, в частности, в большинстве программ-архиваторов. Основная идея алгоритма состоит в том, что цепочки символов, уже встреченные ранее кодируются ссылкой на их «координаты» (номер первого символа и длину) в «словаре», где находится уже обработанная часть сообщения.

Сжимаемое сообщение постепенно «вдвигается» в буфер источника. Программа- кодер выделяет в буфере блок (цепочку) символов первоначально максимальной длины (обычно порядка 16 символов) и пытается найти совпадающую цепочку в словаре источника. Если это не удается, кодер повторяет поиск для более короткого «урезанного» варианта цепочки. Когда эта цепочка обнаруживается в словаре, в канал передаются ее координаты. Если же поиск не дал результата даже для самого короткого варианта цепочки из двух символов, каждый из них передается по каналу самостоятельно.

На стороне приемника программа декодер принимает коды и восстанавливает исходное сообщение по собственному словарю. При этом восстановленные цепочки тут же попадают в словарь приемника так, что его содержимое синхронизируется с содержимым словаря источника.

Уточним дополнительно некоторые моменты:

коды координат цепочки  и коды отдельных символов различаются битовыми признаками (например, в первом случае – 1, во втором –0) ;

поскольку цепочки находятся чаще в начале словаря, и чаще бывают короткими, дополнительный выигрыш получают за счет статистического кодирования (по Хаффмену) их «адресов» и «длин»;

«канал» — понятие применимое и к реальному каналу передачи данных,  и к файлу, куда данные записываются для хранения. В последнем случае декодер «отрабатывает» при разворачивании сжатого файла;

при ограниченной длине словаря (обычно от 4 до 16 кбайт) новые поступающие символы и цепочки «вытесняют» прежние (текст как бы «вдвигается» в словарь). Разумеется, вначале, когда словарь не заполнен, эффективность сжатия невысока. Рост объема словаря позволяет повысить степень сжатия, но значительно увеличивается трудоемкость поиска цепочек.

Добавим, что алгоритм Лемпеля-Зива используется в большинстве популярных программ-архиваторов (в том числе, например, в zip, rar, arj и их windows – версиях).

Различие скорости и эффективности кодирование-декодирование определяются в основном особенностями программной реализации.

Алгоритм Лемпеля-Зива требует большого количества вычислительной работы. Его модификация — алгоритм Лемпеля-Зива-Велча является менее трудоемким, хотя и дает несколько худшие результаты по сжатию.

4 Сжатие изображений по блочному алгоритму JPEG.

Как известно, все множество цветовых оттенков может быть задано различными пропорциями яркости трех цветовых составляющих, — в частности, красного (Red – R),  зеленого (Green – G) и голубого (Blue – B). В памяти компьютера изображение чаще всего представляется как матрица (растр) точек —  пикселей.

(Наряду с таким «растровым»  представлением существует и так называемое «векторное», когда элементы изображения — кривые – описываются математическими уравнениями. К «векторному» описанию изображения применимы способы сжатия данных без потерь. Здесь мы будем говорить о методах, применяемых по отношению к растровым изображениям).

 Каждому пикселю отвечает три кодовых слова, характеризующих яркость составляющих RGB. Чаще всего для каждого из них отводится один байт (именно так кодируются цвета пикселей например в популярных графических форматах tif и bmp).

Особенности человеческого зрения заключаются, в частности, в том, что глаз слабо различает мелкие детали изображения и более чувствителен к изменениям яркости, чем к цветовым переходам. Эти особенности использует популярный алгоритм сжатия с потерями информации JPEG. В настоящее время широко используется «блочная»  версия алгоритма, в которой все изображение разбивается на блоки 8х8 и в дальнейшем эти блоки «огрубляются» таким образом, чтобы код, который их описывает, стал как можно короче (исходное описание каждого такого блока требует 8х8х3=192 байта).

Контрольные вопросы:

  1. Почему сжатие с потерями используется в основном как кодирование изображений и звука?
  2. Поясните суть методов «кодирования повторов» и кодирование по Лемпелю-Зиву.
  3. В чем отличия «блочного» и «волнового» кодирования изображений в стандарте JPEG?
  4. Какие преимущества при сжатии звуковой информации дает детальное знание особенностей источников звука.
  5. Неравномерное кодирование особенно эффективно, когда когда объем алфавита n не равен степени двойки. Объясните это.
  6. Что такое «префиксность» применительно к кодированию?
  7. Поясните процедуру построения кода Хаффмена ?
  8. В чем особенности однопроходного и двухпроходного кода Хаффмена?

Лекции по дисциплине

ОСНОВЫ ТЕОРИИ ИНФОРМАЦИИ.

Тема: Введение. Понятие информации. Информация и данные.

1. Понятие информации

Вопрос о сущности информации возникает у учителей и преподавателей, когда надо ученику объяснить, почему в учебниках такое разнообразие, информация – это свойство материи, сигнал, знания, байт, символ, смысл, данные и вообще неопределяемое понятие.

Информацию можно определить как набор сообщений об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности и не полноты знаний.

Термин информация происходит от латинского informatio, что означает разъяснение, осведомление, изложение. Сообщение в свою очередь является формой представления информации в виде речи, текста, изображения, графиков, таблиц, видеоизображения, звука и т. п.

В широком смысле информация – это общенаучное понятие, включающее в себя обмен сведениями между людьми, людьми и машинами, живой и не живой природой. Данное определение не претендует на полноту и законченность так как информация относится к наиболее фундаментальным понятиям таким как материя, поле, энергия, которые лишь описываются и трактуются.

Информация, как любой объект или явления, имеет три составляющие: сущность, определение и термин.

Рассмотрим гипотезу, основанную на разделении понятия «информация» на два: «данные» и «смысл», т.к. смысл в этой паре является главным, то смысл, назовем «информацией».

С точки зрения философии информация – наиболее общее понятие наряду с материей.  Можно сказать, что она отражает организацию материи.  При этом информация не только пассивно характеризует структуру материи, но и способна активно создавать и воспроизводить эту структуру. Например, любой созданный человеком объект первоначально существует в виде идеи (образа) в голове его творца, а свойства самого человека в значительной степени запрограммированы информацией, хранящейся в его геноме.

“Антиподом” информации, характеризующей стуктурированность материи является энтропия, которая отражает ее неупорядоченность (“хаоc”).

Упорядоченность и хаос (и, соответственно, энтропия и информация) в видимой вселенной непрерывно перетекают друг в друга: например, строить – означает упорядочивать, а разрушать – вносить беспорядок. Но “есть время собирать камни и время разбрасывать камни”. Исходя из этого существует предположение о “законе сохранения” количества информации во Вселенной. Однако, есть и прямо противоположная точка зрения: след всего, что происходит, неуничтожим на “тонких уровнях” организации материи, так что информация постоянно накапливается.

2  Информация в адаптивной системе

Упомянутый выше подход к информации можно считать наиболее общим, однако, он мало что дает в практическом плане. Понятия количества, значения и ценности информации приобретают смысл, если в рассмотрении появляется субъект – система, которая эту информацию использует. Такой системой может быть, например, живой организм, сообщество людей или компьютер, управляющий некоторым агрегатом.

Система всегда существует в определенной среде. Чтобы решать свои задачи она должна иметь собственную модель среды и постоянно корректировать ее на основе получаемых сведений (адаптировать). В рамках такого подхода информация есть «представление субъекта об окружающей среде». Напротив,  энтропия – неопределенность в таком представлении. Появление новых сведений снимает часть неопределенности и энтропия (“незнание”) заменяется информацией (“знанием”).

Обратите внимание, что информация (как “представления субъекта”) сама по себе не материальна, однако, она всегда имеет материальные носители: сигналы, которые ее переносят или параметры элементов, с помощью которых она хранится. Сигналы служат носителями информации при восприятии ее из среды и при передаче от одного субъекта другому (при этом “другой субъект” представляется во “внутренней модели”, как элемент среды). Обратите внимание, что из многообразных физических воздействий среды на субъекта сигналами будут лишь те, из которых субъект получает информацию.

Контрольные вопросы:

  1. Что понимают под информацией?
  2. Что такое «информация» с точки зрения философии?
  3. Какое понятие является антиподом информации?
  4. Дайте пояснение понятию «модель среды».
  5. Для чего служат сигналы?

Тема: Виды и формы представления информации. Свойства информации.

           Формы представления информации

Для человека, как существа общественного, принципиально необходимо обмениваться информацией с себе подобными. Именно способность накапливать, передавать и воспринимать опыт других и сделала его Человеком. При этом по мере развития культуры люди изобретали все более изощренные и разнообразные средства хранения, передачи, а затем и обработки информации.

Классификация основных форм представления информации, используемых человеком для ее передачи и хранения.

1 Символьная информация. Понятие о знаках и знаковых системах

Знаки представляют материальное замещение понятий, которыми человек пользуется, чтобы упорядочить и упростить свои представления о внешнем мире (так, понятие “человек” обобщает множество индивидуальностей разного возраста, пола, расы и т.д., а этому понятию может соответствовать определенный знак, например, пиктограмма).

Обычно знаки образуют систему. Примером знаковой системы являются различные языки – от живого языка человеческого общения до алгоритмического языка для записи программ или языка химических формул. Другие примеры – набор цветов светофора, знаков дорожного движения и т.д. Существуют и внесистемные знаки, которые обычно тоже являются «обломками» знаковых систем (например жесты или междометия).

По своей природе знаковые системы дискретны, то-есть, используют ограниченный набор элементов.

Другой аспект – связь формы знака и его смысла. Знаки, форма (вид), которых непосредственно связана с их смыслом называют символами. Таковы, например, гербы и пиктограммы. Если подобная связь отсутствует (как в случае слов естественного языка или знаков математических операций), знаки называют диакритиками. Обычно знаковые системы состоят из диакритических знаков, хотя в ряде случаев можно проследить их символические корни (например, некоторых букв и иероглифов).

Законы  построения знаковых систем изучает семиотика, которая включает ряд направлений.

Синтактика занимается правилами соединения знаков (например, построения фраз).

Семантика изучает смысл – соответствие знака (слова) и понятия. Фраза «Глокая куздра штеко будланула бокра и кудлачит бокренка» построена синтаксически верно, однако она бессмысленна, поскольку словам не соответствуют понятия.

Прагматика занимается полезностью и истинностью. Фраза «Сегодня хорошая погода» синтаксически правильна и семантически корректна. Однако истинность и ценность информации, которую она передает, зависит от конкретных условий.

Сигматика изучает вопросы обозначений.

В нашем курсе использование знаков рассматривается с точки зрения передачи информации. С этих позиций они представляют собой условное изображение  элементов сообщения. Типичный случай сообщения, ссотоящего из знаков – текст.

2 Графическая информация. Понятие о спектре непрерывных сообщений

Графическая форма представления удобна для отображения информации, которую человек непосредственно, без логической обработки, получает по зрительному каналу (изображения). Она хорошо подходит также для передачи особенностей непрерывных по своей природе сигналов (например, звуковых), а в общем виде – непрерывных зависимостей .

Типичный вариант графического отображения непрерывной зависимости (например, изменения некоего сигнала во времени) показан на Рис. 1. Если учесть, что любой цветовой сигнал может быть представлен как наложение трех цветов (в частности, красного, зеленого и голубого), то изменение цвета точки изображения также можно представить тремя аналогичными зависимостями. Таким образом, подобный подход достаточно универсален.

Зачастую меняющаяся во времени величина сохраняет некоторые стабильные характеристики, в частности, мощность различных частотных составляющих (которым соответствуют участки кривой с разной скоростью изменения амплитуды). Такой “частотный портрет” непрерывной зависимости называется спектром. На рис. 2 приведены несколько примеров спектров – постоянного сигнала (его “частота”  равна 0), гармоники (у которой, разумеется, одна частота) и сложного апериодического сигнала.

В дальнейшем мы вернемся к детальному изучению спектров различных сигналов, используемых при передаче информации по линиям связи. Здесь же уместно отметить следующее: для реальных сигналов, скорость изменения которых конечна, всегда существует некоторая граничная частота спектра fm, соответствующая его самой высокочастотной составляющей.

3 Параметрическая (числовая) информация. Дискретизация непрерывных сообщений

Для представления количественной информации чаще всего используются числа. По сравнению с представлением величин непрерывными зависимостями они дают значительные преимущества в возможностях обработки и хранения информации. Именно поэтому непрерывные сообщения часто “оцифровывают”, то есть представляют как последовательность чисел.

Числовая информация, как и символьная, по своей природе дискретна, так как она может быть представлена ограниченным набором символов (в частности, цифр).

На Рис.1 показана дискретизация непрерывной зависимости U(t). Она включает две составляющих:

  • дискретизацию по времени с шагом Δt;
  • дискретизацию (квантование) по уровню с шагом ΔU.

Благодаря этим двум этапам всю зависимость U(t) можно представить как последовательность дискретных значений, которым соответствуют числа.

Очевидно, что точность дискретизации по уровню может быть выбрана как угодно большой

Важно, что непрерывную информацию с помощью оцифровки (дискретизации) принципиально в любом случае можно представить, как дискретную с любой необходимой точностью. В то-же время, обратное преобразование иногда невозможно (например, для символов). Таким образом, дискретная форма представления информации является наиболее общей.

В соответствие с формами представления информации выделяют и типы дискретных и непрерывных сообщений. Первые состоят из знаков, принадлежащих к определенному алфавиту. Вторые включают непрерывно меняющиеся во времени величины.

Принципиально важно, что непрерывная информация в любом случае могут быть преобразована к дискретной, тогда как обратное преобразование возможно не всегда.

Действительно, непрерывную зависимость некоторых величин можно дискретизировать, если задавать их соответствие  в ограниченном наборе точек. При этом точность такого преобразования принципиально может быть задана достаточно высокой, чтобы не потерять информацию. А вот однозначно восстановить неизвестную кривую по ограниченному набору точек возможно не всегда. Мы будем рассматривать дискретную форму представления информации, как основную.

Контрольные вопросы:

  1. Правилами соединения знаков занимется…
  2. Какой раздел науки занимается изучением смысла – соответствия знака (слова) и понятия.
  3. Что занимается полезностью и истинностью информации?
  4. Какими вопросами занимается сигматика?
  5. Чем удобно графическое представление информации?

Тема: Формы адекватности информации.

     1. Основные виды обработки данных

Представим основные компоненты информационной технологии обработки данных и приведем их характеристики.

Сбор данных.  По мере того как фирма производит продукцию или услуги, каждое её действие сопровождается соответствующими записями данных. Обычно действия фирмы, затрагивающие внешнее окружение, выделяются особо как операции, производимые фирмой.

Обработка данных. Для создания из поступающих данных информации, отражающей деятельность фирмы, используются слежующие типовые операции:

  • Классификация или группировка. Первичные данные обычно имеют вид кодов, состоящих из одного или нескольких символов. Эти коды, выражающие определенные признаки объектов, используются для идентификации и группировки записей;

Пример. При расчете заработной платы каждая запись включает в себя код (табельный номер) работника, код подразделения, в котором он работает, занимаемую должность и т.п. В соответствии с этими кодами можно произвести разные группировки.

  • Сортировка, с помощью которой упорядочивается последовательность записей;
  • Вычисления, включающие арифметические и логические операции. Эти операции, выполняемые над данными, дают возможность получать новые данные;
  • Укрупнение или агрегирование, служащее для уменьшения количества данных и реализуемое в форме расчетов итоговых и средних значений.

Хранение данных. Многие данные на уровне операционной деятельности необходимо сохранить для последующего использования либо здесь же. Либо на другом уровне. Для их хранения создаются базы данных.

Создание отчетов (документов). В информационной технологии обработки данных необходимо создавать документы для руководства и работников фирмы, а также для внешних партнеров. При этом документы могут создаваться как по запросу или в связи с проведенной фирмой операцией, так и периодически в конце каждого месяца, квартала или года.

  1. Обработка аналоговой и цифровой информации

По принципу действия вычислительные машины делятся на три большие класса: аналоговые (АВМ), цифровые (ЦВМ) и гибридные (ГВМ).

Аналоговые вычислительные машины (АВМ) – вычислительные машины непрерывного действия, работают с информацией, представленной в непрерывной (аналоговой) форме, т.е. в виде непрерывного ряда значений какой-либо физической величины (чаще всего электрического напряжения).

Аналоговые вычислительные машины весьма просты и удобны в эксплуатации; программирование задач для решения на них, как правило, нетрудоемкое; скорость решения задач изменяется по желанию оператора и может быть сделана сколь угодно большой (больше, чем у ЭВМ), но точность решения задач очень низкая (относительная погрешность 2-5%). На АВМ наиболее эффективно решать математические задачи, содержащие диференциальные уравнения, не требующие сложной логики.

Цифровые вычислительные машины (ЦВМ) – вычислительные машины дискретного действия, работают с информацией, представленной в дискретной, а точнее, в цифровой форме

Гибридные вычислительные машины (ГВМ) – вычислительные машины комбинированного действия, работают с информацией, представленной и в цифровой, и в аналоговой форме; они совмещают в себе достоинства АВМ и ЦВМ. ГВМ целесообразно использовать для решения задач управления сложными быстродействующими техническими комплексами.

Наиболее широкое применение получили ЦВМ с электрическим представлением дискретной информации – электронные цифровые вычислительные машины, обычно называемые просто электронными вычислительными машинами (ЭВМ), без упоминания об их цифровом характере.

Электронная вычислительная машина, компьютер – комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач.

Контрольные вопросы:

  1. Какие основные методы обработки информации существуют?
  2. Какие машины называются аналоговыми?
  3. Какие машины называются цифровыми?
  4. Какие машины называются гибридными?
  5. Дайте определение ЭВМ.

Тема: Системы счисления. Непозиционные и позиционные системы счисления.

1. Позиционные  и непозиционные системы счисления

Системой счисления называется совокупность приемов и правил для записи чисел цифровыми знаками. Любая предназначенная для практического применения система счисления должна обеспечивать:

  • возможность представления любого числа в рассматриваемом диапазоне величин;
  • единственность представления (каждой комбинации символов должна соответствовать одна и только одна величина);
  • простоту оперирования числами.

Все системы представления чисел делят на позиционные и непозиционные.

Непозиционная система счисления – система, для которой значение символа не зависит от его положения в числе.

Для их образования используют в основном операции сложения и вычитания. Например, система с одним символом-палочкой встречалась у многих народов. Для изображения какого-то числа в этой системе нужно записать количество палочек, равное данному числу. Эта система неэффективна, так как запись числа получается длинной. Другим примером непозиционной системы счисления является римская система, использующая набор следующих символов: I, V, X, L, C, D, M и т. д. В этой системе существует отклонение от правила независимости значения цифры от положения в числе. В числах LX и XL символ X принимает два различных значения: +10 – в первом случае и –10 – во втором случае.

Позиционная система счисления – система, в которой значение символа определяется его положением в числе: один и тот же знак принимает различное значение. Например, в десятичном числе 222 первая цифра справа означает две единицы, соседняя с ней – два десятка, а левая – две сотни.

Любая позиционная система характеризуется основанием. Основание (базис) позиционной системы счисления – количество знаков или символов, используемых для изображения числа в данной системе.

Для позиционной системы счисления справедливо равенство

(1)

где A(q) – произвольное число, записанное в системе счисления с основанием q; ai – коэффициенты ряда (цифры системы счисления); n, m – количество целых и дробных разрядов.

На практике используют сокращенную запись чисел:

(2)

Например:

а) в двоичной системе (q=2)

11010.1012 = 1 · 24 + 1 · 23 + 0 · 22 + 1 · 21 + 0 · 20 + 1 · 2-1 + 0 · 2-2 + 1 · 2-3;

б) в троичной системе (q=3)

22120.2123 = 2 · 34 + 2 · 33 + 1 · 32 + 2 · 31 + 0 · 30 + 2 · 3-1 + 1 · 3-2 + 2 · 3-3;

в) в шестнадцатиричной системе (q=16)

A3F.1CD16 = A · 162 + 3 · 161 + F · 160 + 1 · 16-1 + C · 16-2 + D · 16-3.

Контрольные вопросы:

  1. Что обеспечивает система счисления?
  2. Какая система счисления называется позиционной?
  3. Какая система счисления называется непозиционной?
  4. Какое равенство отожествляется с позиционной системой счисления?
  5. Приведите примеры позиционных и непозиционных систем счисления.

Тема: Недесятичная арифметика и её правила.

          1.  Двоичная арифметика

Арифметические операции во всех позиционных системах счисления выполняются по одним и тем же хорошо известным вам правилам.

Сложение. Рассмотрим сложение чисел в двоичной системе счисления. В его основе лежит таблица сложения одноразрядных двоичных чисел:

0+0=0

0+1=1

1+0=1

1+1=10

Важно обратить внимание на  то, что при сложении двух единиц происходит переполнение разряда и производится перенос в старший разряд. Переполнение разряда наступает тогда, когда величина числа в нем становится равной или большей основания.

Сложение многоразрядных двоичных чисел происходит в соответствии с вышеприведенной таблицей сложения с учетом возможных переносов из младших разрядов в старшие.

В качестве примера сложим в столбик двоичные числа 1102 и 112 :

    1102

+

      112

  10012

Проверим правильность вычислений сложением в десятичной системе счисления. Переведем двоичные числа в десятичную систему счисления и затем их сложим:

1102=1*22 + 1*21+ 0*20 = 610;

112 = 1*21 + 1*20 = 310;

610  + 310 = 910.

Теперь переведем результат двоичного сложения в десятичное число:

10012 = 1*23 +0*22 + 0*21 + 1*20 = 910/

Сравним результаты – сложение выполнено правильно.

Вычитание. Рассмотрим вычитание двоичных чисел. В его основе лежит таблица вычитания одноразрядных двоичных  чисел. При вычитании из меньшего числа (0) большего (1) производится заем из старшего разряда. В таблице заем обозначен 1 с чертой:

0-0 =_0

0-1 =11

1-0 =  1

1-1 =  0

Вычитание многоразрядных двоичных чисел происходит в соответствии с вышеприведенной таблицей вычитания с учетом возможных заемов из старших разрядов. В качестве примера произведем вычитание двоичных чисел 1102 и 112:

   1102

      112

      112

Умножение. В основе умножения лежит таблица умножения одноразрядных двоичных чисел:

0 *0 = 0

0 *1 = 0

1 *0 =0

1 * 1 =1

Умножение многоразрядных двоичных чисел происходит в соответствии с вышеприведенной таблицей умножения по обычной схеме, применяемой в десятичной системе счисления с последовательным умножением множимого на цифры множителя. В качестве примера произведем умножение двоичных чисел  и:

1102

                                                                                                             x

                                                                             112___

                                                                           110

                                                                         110____

                                                                       100102

Деление.  Операция деления выполняется по алгоритму, подобному алгоритму выполнения операции деления в десятичной системе счисления. В качестве примера произведем деление двоичного числа  1102 и 112:

1102     112___

    —              102

      11

         0

Контрольные вопросы:

  1. Какая арифметика называется недесятичной?
  2. Как производится сложение, вычитание, умножение, и деление  в двоичной системе счисления?
  3. Как производится сложение, вычитание, умножение, и деление  в восьмеричной системе счисления?
  4. Как производится сложение, вычитание, умножение, и деление  в шестнадцатеричной  системе счисления?

Тема: Перевод чисел из заданной системы в другую.

  1. Методы перевода чисел

Числа в разных системах счисления можно представить следующим образом:

где  

Значит, в общем виде задачу перевода числа из системы счисления с основанием q1 в систему счисления с основанием q2 можно представить как задачу определения коэффициентов bj нового ряда, изображающего число в системе с основанием q2. В такой постановке задачу перевода можно решить подбором коэффициентов bj.

          Перевод чисел делением на основание новой системы

Перевод целых чисел осуществляется делением на основание q2 новой системы счисления, правильных дробей – умножением на основание q2. Действия деления и умножения выполняются по правилам q1-арифметики. Перевод неправильных дробей осуществляется раздельно по указанным правилам, результат записывается в виде новой дроби в системе с основанием q2.

Пример 1. Перевести десятичное число A = 6110 в систему счисления с q = 2.

     61       | 2  

     60       30       | 2

b0 = 1       30      15       | 2

            b1 = 0     14         7      | 2

                     b2 = 1         6        3     | 2

                                b3 = 1        2       1 = b5

                                          b4 = 1

Ответ: 6110 = 1111012.

Табличный метод перевода

В простейшем виде табличный метод заключается в следующем: имеется таблица всех чисел одной системы с соответствующими эквивалентами из другой системы; задача перевода сводится к нахождению соответствующей строки таблицы и выбору из нее эквивалента. Такая таблица очень громоздка и требует большой емкости памяти для хранения.

Другой вид табличного метода заключается в том, что имеются таблицы эквивалентов в каждой системе только для цифр этих систем и степеней основания (положительных и отрицательных); задача перевода сводится к тому, что в выражение ряда (1) для исходной системы счисления надо поставить эквиваленты из новой системы для всех цифр и степеней основания и произвести соответствующие действия (умножения и сложения) по правилам q2-арифметики. полученный результат этих действий будет изображать число в новой системе счисления.

Пример 2. Перевести десятичное число A = 113 в двоичную систему счисления, используя таблицу эквивалентов цифр и степеней основания

(q2 = 2).

Таблица 1 – Таблица эквивалентов

Десятичное число

Двоичное число

100

0001

101

1010

102

110 0100

Решение. Подставив значения двоичных эквивалентов десятичных цифр и степеней основания в (3), получим

A = 113 = 1 · 102 + 1 · 101 + 3 · 100 = 001 · 1100100 + 0001 · 1010 + 0011 · 0001 = 11100012.

Ответ: 11100012.

  1. Форматы представления чисел с фиксированной плавающей запятой

Число 0,028 можно записать так: 28·10-3, или 2,8·10-2, или 0,03 (с округлением) и т. д. В компьютере используются две формы представления чисел.

Представление чисел с фиксированной запятой (точкой). Оно характеризуется тем, что положение разрядов числа в машинном изображении остается всегда постоянным независимо от величины самого числа.

Число А можно представить в виде

A=[A]ф KA,

где [A]ф – машинное изображение числа в формате с фиксированной запятой, значение которого лежит в пределах

-1 < [A]ф < 1;

KA – масштабный коэффициент, выбирается так, чтобы сохранить соответствие разрадов всех чисел, которыми оперирует компьютер.

Формат (разрядная сетка) машинного изображения чисел с фиксированной запятой разбивается на знаковую часть и поле числа. В знаковую часть записывается информация о знаке числа: 0, если A≥0; 1, если A<0.

0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

№ разряда

Например, числа А1 и A2 в прямом коде имеют машинное изображение:

0

0

1

0

0

1

1

1

0

0

0

1

0

1

1

1

A1 = 0.0100111000101112;

1

0

1

0

0

1

1

1

0

0

0

1

0

1

1

1

A2 = – A1 = 0.0100111000101112.

Представление чисел в формате с плавающей запятой. Оно характеризуется тем, что положение разряда числа в его машинном изображении непостоянно, и число А записывается следующим образом:

A = mApA,

где mA – мантисса числа A; при представлении числа в компьютере мантисса должна удовлетворять ограничению 2-1 ≤ | mA | ≤ 1 – 2-n; n – количество разрядов для изображения мантиссы без знака; pA – порядок числа A.

Формат машинного изображения числа с плавающей запятой содержит знаковые части и поля мантиссы и порядка.

0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

№ разряда

           Форматы данных и машинные коды чисел.

Числа в компьютерах в двоичных кодах представляются как с фиксированной точкой или запятой, так и с плавающей точкой или запятой. Представление чисел в формате с фиксированной точкой получило название естественной формы числа, представление с плавающей точкой – нормальной формы числа. Под те или иные форматы отводится заранее известное количество разрядов (бит) -16,32 и т.д. Эта же величина может быть выражена в байтах, с учетом того, что 1 байт=8 бит.

           Представление чисел в формате с фиксированной точкой

Для чисел в естественной форме положение точки жестко фиксируется:

  • Для целых чисел точка располагается справа от младшего разряда:

00000000000000002 =010, 0111111111111111. 2=32767.10;

  • Для правильных дробей – перед старшим разрядом:

0.0000000000000002=010, 0.0000000000000012=0.000 030 517 57810;

  • Для смешанных дробей – в определенном месте, отделяющем целую часть числа от дробной:

000000.00000000002=0.010, 000001.00000000012=1.000 976 56310

Наиболее часто такая форма используется для целых чисел и целых чисел без знака. Количество разрядов может быть либо 16 (вид Н), либо 32 (вид F).

Во всех форматах знак числа помещается в старший разряд и кодируется как 0 – знак положительного числа, либо как 1 – знак отрицательного числа. Знак отделяется от самого числа воображаемой точкой (рис.)

         Знак              214            213                         21      20

1

1

1

1

1

Аmin

Формат Н

0

1

1

1

1

Аmax

0

1

2

14

15

         Знак              230            229                         21      20

1

1

1

1

1

Аmin

Формат F

0

1

1

1

1

Аmax

0

1

2

14

15

Рис. 1.3. Форматы чисел с фиксированной точкой.

Фиксированная точка позволяет задать число только в строго определенном диапазоне. В формате Н числа можно задавать

От 1111  1111  1111  11112  до 0111  1111  1111  11112,

т.е. от -3276710 до 3276710, или от (1 – 215 ) до (215-1).

В формате F числа могут находиться в интервале

От  1111 1111 1111 1111 1111 1111 1111 11112

До 0111 1111 1111 1111 1111 1111 1111 11112,

т.е. от -7 F F F F F F F16 до 7 F F F F F F F16.

Естественно, что представление в шестнадцатиричной системе для формы F предпочтительнее двоичной.

Рассмотрим несколько примеров.

ЗАДАЧИ

1.3.1. Представить в форматах Н и F числа -12710 и 12710

12710=1*26+1*25+1*24+1*23+1*22+1*21+1*20=0111 11112.

А2Н=0000 0000 0111 11112,  А2F=0000 00 7 F16.

-12710=- (1*26+1*25+1*24+1*23+1*22+1*21+1*20)= -0111 11112.

А2Н=1000 0000 0111 11112,  А2F=8000 00 7 F16.

1.3.2. Определить, какие из следующих шестнадцатиричных чисел положительные, а какие отрицательные: 9754, 157, ADF, 7654AD и  DFEA.

Знак числа определяется по первой цифре: если она меньше 8 (1000), то число положительное, если значение от 8 до F, то отрицательное. Таким образом, получаем 9754<0, 157>0, ADF<0, 7654AD>0 и DFEA<0.

Представление чисел в формате с плавающей точкой

Для расширения диапазона рассматриваемых чисел по сравнению с естественной формой чисел используется формат с плавающей точкой или нормальная форма. Любое число в этом формате представляется, как А= ±maE±Pа,

где ma  — мантисса числа А; Е – основание системы счисления; ±Ра— порядок. Все эти величины – двоичные числа без знака. На рис. 2 приведен формат числа в нормальной форме. Старший разряд (нулевой) содержит знак мантиссы, первый разряд – знак порядка, 6 разрядов, со второго по седьмой, определяют значение порядка, а остальные – мантиссу. Нормальная форма может быть представлена коротким форматом Е (4 байта), длинным форматом  D (8 байт) и повышенной точности (16 байт). Во всех этих формах представления первый байт остается постоянным, изменяется только область, отведенная под мантиссу.

Знак ma                     Знак Ра                       Порядок                    Мантисса           

                              0               1                 2         …               7      8                       31

Рис. 2. Нормальная форма числа

При таком представлении чисел 0 может быть записан 64 разными способами, т.к. для этого подходят любые значения порядков 0*20=0*21=…=0*263. А другие числа могут иметь много различных форм записи. Например, 153610=3*29=6*28=…=768*21.

Для однозначного представления чисел мантиссу нормализуют, т.е. накладывают ограничение 1/Е≤m<1.

Это ограничение означает, что мантисса представляет собой правильную дробь и содержит хотя бы одну значащую цифру после запятой, отличную от нуля. Нормализованным представлением нуля является такое представление, при котором во всех разрядах находятся нули.

При использовании нормальной формы для части компьютеров характерно смещение оси порядков в область положительных значений. В этом случае арифметические действия производятся над порядками, не имеющими знака. В нормальной форме под значение порядка отводится 7 разрядов, один из них знаковый. Таким образом, значение порядка может лежать в интервале 26≤Р≤26-1, т.е. от -64 до 63.

Сместив порядок на 26=64=4016, мы получаем интервал возможных значений 0≤Р≤27-1=127. Смещенный порядок на 4016 называется характеристикой и вычисляется как Рx=P+40.

Если характеристика равна 40, то порядок равен 0; если характеристика меньше 40, то порядок отрицателен; если больше – то положителен.

ЗАДАЧИ

1.3.3. Представить в нормальной сетке Е числа 32001,510  и -32001,510 

Представим числа в шестнадцатиричном коде  32001,510=7D01,816 и

32001,510. =-7D01,816

Затем найдем нормализованные мантиссы и характеристики.

m=7D01,816 m=0,7D018,                                                                                                                                                                                                                                                                                          

при этом характеристика становится равной Рx=40+4=44

Знак m           Рx                                                m

0

100 0100

0111   1101   0000   0001   1000   0000

447D0180>0

 m=-7D01,816 m=-0,7D018,

при этом характеристика становится равной Рx=40+4=44

Знак m           Рx                                                m

1

100 0100

0111   1101   0000   0001   1000   0000

С47D0180<0

Контрольные вопросы:

  1. Как осуществляется перевод чисел делением на основание новой системы.
  2. Как пользуются при табличном методе перевода чисел?
  3. Что понимают под форматом данных?
  4. Как представляется  число в формате с фиксированной точкой?
  5. Как представляется  число в формате с плавающей точкой?

Тема: Меры информации: синтаксическая, семантическая, прагматическая.

Информация — это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состояниях, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

 Информатика рассматривает информацию как связанные между собой сведения, изменяющие наши представления о явлении или объекте окружающего мира. С этой точки зрения информацию можно рассматривать как совокупность знаний о фактических данных и зависимостях между ними.

 В процессе обработки информация может менять структуру и форму. Признаком структуры являются элементы информации и их взаимосвязь. Формы представления информации могут быть различны. Основными из них являются: символьная (основана на использовании различных символов), текстовая (текст — это символы, расположенные в определенном порядке), графическая (различные виды изображений), звуковая.

 В повседневной практике такие понятия, как информация и данные, часто рассматриваются как синонимы. На самом деле между ними имеются различия. Данными называется информация, представленная в удобном для обработки виде. Данные могут быть представлены в виде текста, графики, аудио-визуального ряда. Представление данных называется языком информатики, представляющим собой совокупность символов, соглашений и правил, используемых для общения, отображения, передачи информации в электронном виде.

Информационная коммуникация – это пути процессы, обеспечивающие передачу сообщений от источника информации к её потребителю. Для потребителей информации важной характеристикой является адекватность.

Адекватность информации – определенный уровень соответствия, создаваемого с помощью полученной информации образа реальному образу, процессу или явлению.

 Одной из важнейших характеристик информации является ее адекватность. От степени адекватности информации зависит правильность принятия решения.

 Адекватность информации может выражаться в трех формах: синтаксической, семантической и прагматической.

Синтаксическая адекватность отображает формально-структурные характеристики информации, не затрагивая ее смыслового содержания. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость ее передачи и обработки, размеры кодов представления информации, надежность и Точность преобразования этих кодов и т. д. Информацию, рассматриваемую с таких позиций, обычно называют данными.

Семантическая адекватность определяет степень соответствия образа объекта самому объекту. Здесь учитывается смысловое содержание информации. На этом уровне анализируются сведения, отражаемые информацией, рассматриваются смысловые связи. Таким образом, семантическая адекватность проявляется при наличии единства информации и пользователя. Эта форма служит для формирования понятий и представлений, выявления смысла, содержания информации и ее обобщения.

Прагматическая адекватность отражает соответствие информации цели управления, реализуемой на ее основе. Прагматические свойства информации проявляются при наличии единртва информации, пользователя и цели управления. На этом уровне анализируются потребительские свойства информации, связанные с практическим использованием информации, с соответствием ее целевой функции деятельности системы.

 Каждой форме адекватности соответствует своя мера количества информации.

Синтаксическая мера информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. На этом уровне объем данных в сообщении измеряется количеством символов в этом сообщении. В современных ЭВМ минимальной единицей измерения данных является бит — один двоичный разряд. Широко используются также более крупные единицы измерения: байт, равный 8 битам; килобайт, равный 1024 байтам; мегабайт, равный 1024 килобайтам, и т. д.

Семантическая мера информации используется для измерения смыслового содержания информации. Наибольшее распространение здесь получила тезаурусная мера, связывающая семантические свойства информации со способностью пользователя принимать поступившее сообщение. Тезаурус — это совокупность сведений, которыми располагает пользователь или система. Максимальное количество семантической информации потребитель получает при согласовании ее смыслового содержания со своим тезаурусом, когда поступающая информация понятна пользователю и несет ему ранее не известные сведения. С семантической мерой количества информации связан коэффициент содержательности, определяемый как отношение количества семантической информации к общему объему данных.

Прагматическая мера информации определяет ее полезность, ценность для процесса управления. Обычно ценность информации измеряется в тех же единицах, что и целевая функция управления системой.

Контрольные вопросы:

  1. Что такое информация?
  2. Что понимают под адекватностью информации?
  3. Дайте информационной коммуникации.
  4. Что отображает синтаксическая адекватность?
  5. Что определяет семантическая адекватность?
  6. Дайте определение прагматической адекватности.

Тема: Параметры измерения информации.

Содержательный подход к измерению информации. Сообщение – информативный поток, который в процессе передачи информации поступает к приемнику.  Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными  Информация — знания человека ? сообщение должно быть информативно. Если сообщение не информативно, то количество информации с точки зрения человека = 0. (Пример: вузовский учебник по высшей математике содержит знания, но они не доступны 1-класснику)

Алфавитный подход к измерению информации не связывает количество информации с содержанием сообщения. Алфавитный подход — объективный подход к измерению информации. Он  удобен при использовании технических средств работы с информацией, т.к. не зависит от содержания сообщения. Кол-во информации зависит от объема текста и мощности алфавита. Ограничений на max мощность алфавита нет, но есть достаточный алфавит мощностью 256 символов. Этот алфавит используется для представления текстов в компьютере. Поскольку 256=28, то 1символ несет в тексте 8 бит информации.

Вероятностный подход к измерения информации. Все события происходят с различной вероятностью, но  зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил  Шеннон.

Качество информации является одним из важнейших параметров для потребителя информации. Оно определяется следующими характеристиками:

— репрезентативность – правильность отбора информации в целях адекватного отражения источника информации. Например, в целях большей репрезентативности данных о себе абитуриенты стремятся представить в приемную комиссию как можно больше свидетельств, дипломов, удостоверений и другой информации, подтверждающей их высокий уровень подготовки, что учитывается при зачислении в ВУЗ;

— содержательность – семантическая емкость информации. Рассчитывается как отношение количества семантической информации к ее количеству в геометрической мере. Это характеристика сигнала, про который говорят, что «мыслям в нем тесно, а словам просторно». В целях увеличения содержательности сигнала, например, используют для характеристики успеваемости абитуриента не полный перечень его аттестационных оценок, а средний балл по аттестату;

— достаточность  (полнота) – минимальный, но достаточный состав данных для достижения целей, которые преследует потребитель информации. Эта характеристика похожа на репрезентативность, однако разница состоит в том, что в данном случае учитывается минимальный состав информации, который не мешает принятию решения. Например, абитуриент – золотой медалист может не представлять в приемную комиссию свой аттестат: диплом, подтверждающий получение золотой медали, свидетельствует о полном наборе отличных оценок в аттестате;

— доступность – простота (или возможность) выполнения процедур получения и преобразования информации. Эта характеристика применима не ко всей  информации, а лишь к той, которая не является закрытой. Для обеспечения доступности бумажных документов используются различные средства оргтехники для их хранения, а для облегчения их обработки используются средства вычислительной техники;

— актуальность – зависит от динамики изменения характеристик информации и определяется сохранением ценности информации для пользователя в момент ее использования. Очевидно, что касается информации, которая используется при зачислении, она актуальна, так как само обучение уже закончилось, и его результаты изменены быть не могут, а, значит, остаются актуальными;

— своевременность – поступление не позже заранее назначенного срока. Этот параметр также очевиден недавним абитуриентам: опоздание с представлением позитивной информации о себе при поступлении может быть чревато незачислением;

— точность – степень близости информации к реальному состоянию источника информации. Например, неточной информацией является медицинская справка, в которой отсутствуют данные о перенесенных абитуриентом заболеваниях;

— достоверность – свойство информации отражать источник информации с необходимой точностью. Эта характеристика вторична относительно точности. В предыдущем примере получаемая информация недостоверна;

— устойчивость – способность информации реагировать на изменения исходных данных без нарушения необходимой точности.

Контрольные вопросы:

  1. Какие подходы к измерению информации существуют?
  2. Определите содержательный подход к измерению информации.
  3. Какой подход измерения информации называется алфавитным?
  4. Дайте определение вероятностному подходу.
  5. Какими характеристиками определяется информация?

Тема: Понятие количества  информации. Единицы измерения информации.

1.     Измерение информации в быту (информация как новизна).

Разные люди, получив одно и тоже сообщение, по-разному оценивают количество информации, содержащееся в нем. Оно зависит от того, насколько ново это сообщение для получателя. При этом подходе трудно выделить критерии, по которым можно было вывести единицу измерения информации.

2. Измерение информации в технике (информация – любая хранящаяся, обрабатываемая или передаваемая последовательность знаков).

А) В технике часто используют способ определение количества информации называемый объемным. Он основан на подсчете числа символов в сообщении, т.е. связан с его длиной и не зависит от содержания.

Б) В вычислительной технике (ВТ) применяют две стандартные единицы измерения:

В теории информации количеством информации называют числовую характеристику сигнала, не зависящую от его формы и содержания, и характеризующую неопределенность, которая исчезнет после получения сообщения в виде данного сигнала. В этом случае количество информации зависит от вероятности получения сообщения о том или ином событии.

Для абсолютно достоверного события (событие обязательно произойдет, поэтому его вероятность равна 1) количество информации в сообщении  о нем равно 0. Чем неожиданнее событие, тем больше информации он несет.

Лишь  при равновероятных событиях: ответ «да» или «нет»,  несет 1 бит. Единицы измерения количества информации. Для количественного выражения любой величины необходимо определить единицу измерения. Так, для измерения длины в качестве единицы выбран метр, для измерения массы — килограмм и так далее. Аналогично, для определения количества информации необходимо ввести единицу измерения.

За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица названа «бит».

Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в два раза и, следовательно, полученное количество информации равно 1 биту.

Минимальной единицей измерения количества информации является бит, а следующей по величине единицей является байт, причем 1 байт = 23 бит = 8 бит.

В информатике система образования кратных единиц измерения количества информации несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10n, где n = 3, 6, 9 и так далее, что соответствует десятичным приставкам Кило (103), Мега (106), Гига (109) и так далее.

Компьютер оперирует числами не в десятичной, а в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется коэффициент 2n.

 Так, кратные байту единицы измерения количества информации вводятся следующим образом:

 1 Кбайт = 210  байт = 1024 байт;

 1 Мбайт = 210 Кбайт = 1024 Кбайт;

 1 Гбайт = 210 Мбайт = 1024 Мбайт.

Количество возможных событий и количество информации. Существует формула, которая связывает между собой количество возможных событий N и количество информации I: N=2I.

 По этой формуле можно легко определить количество возможных событий, если известно количество информации. Например, если мы получили 4 бита информации, то количество возможных событий составляло: N = 24= 16.

 Наоборот, для определения количества информации, если известно количество событий, необходимо решить показательное уравнение относительно I. Например, в игре «Крестики-нолики» на поле 8×8 перед первым ходом существует возможных события (64 различных варианта расположения «крестика»), тогда уравнение принимает вид: 64 = 2I.

 Так как 64 = 26, то получим: 26 = 2I.

 Таким образом, I = 6 битов, то есть количество информации, полученное вторым игроком после первого хода первого игрока, составляет 6 битов.

Контрольные вопросы:

  1. Что называется измерением информации?
  2. Какие способы определения количества информации существуют?
  3. Дайте определение количества информации.
  4. какие единицы измерения информации существуют?

Тема: Формула Хартли при определении количества информации.

В 1928 г. американский инженер Р. Хартли предложил научный подход к оценке сообщений. Предложенная им формула имела следующий вид:

            I = log2 K ,

Где К — количество равновероятных событий; I — количество бит в сообщении, такое, что любое из К событий произошло. Тогда K=2I.

 Иногда формулу Хартли записывают так:

            I = log2K = log2 (1 / р) = — log2 р,

т. к. каждое из К событий имеет равновероятный исход р = 1 / К, то К = 1 / р.

   Задача.

  Шарик находится в одной из трех урн: А, В или С. Определить сколько бит информации содержит сообщение о том, что он находится в урне В.

   Решение.

   Такое сообщение содержит I = log2 3 = 1,585 бита информации.

   Но не все ситуации имеют одинаковые вероятности реализации. Существует много таких ситуаций, у которых вероятности реализации различаются. Например, если бросают несимметричную монету или «правило бутерброда».

   «Однажды в детстве я уронил бутерброд. Глядя, как я виновато вытираю масляное пятно, оставшееся на полу, старший брат успокоил меня:

   —    не горюй, это сработал закон бутерброда.

   —    Что еще за закон такой? — спросил я.

   —    Закон, который гласит: «Бутерброд всегда падает маслом вниз». Впрочем, это шутка, — продолжал брат.- Никакого закона нет. Прсто бутерброд действительно ведет себя довольно странно: большей частью масло оказывается внизу.

   —    Давай-ка еще пару раз уроним бутерброд, проверим, — предложил я. — Все равно ведь его придется выкидывать.

   Проверили. Из десяти раз восемь бутерброд упал маслом вниз.

   И тут я задумался: а можно ли заранее узнать, как сейчас упадет бутерброд маслом вниз или вверх?

   Наши опыты прервала мать…»

   ( Отрывок из книги «Секрет великих полководцев», В.Абчук).

   В 1948 г. американский инженер и математик К Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями.

Если I — количество информации,

         К — количество возможных событий,

         рi — вероятности отдельных событий,

то количество информации для событий с различными вероятностями можно определить по формуле:

            I = — Sum рi log2 рi,

где i принимает значения от 1 до К.

   Формулу Хартли теперь можно рассматривать как частный случай формулы Шеннона:

            I = — Sum 1 / К log2 (1 / К) = I = log2 К.

   При равновероятных событиях получаемое количество информации максимально.

   Задачи.

1. Определить количество информации, получаемое при реализации одного из событий, если бросают

а) несимметричную четырехгранную пирамидку;

б) симметричную и однородную четырехгранную пирамидку.

Решение.

а) Будем бросать несимметричную четырехгранную пирамидку.

Вероятность отдельных событий будет такова:

р1 = 1 / 2,

р2 = 1 / 4,

р3 = 1 / 8,

р4 = 1 / 8,

тогда количество информации, получаемой после реализации одного из этих событий, рассчитывается по формуле:

I = -(1 / 2 log2 1/2 + 1 / 4 log2 1/4 + 1 / 8 log2 1/8 + 1 / 8 log2 1/8) = 1 / 2 + 2 / 4 + + 3 / 8 + 3 / 8 = 14/8 = 1,75 (бит).

б) Теперь рассчитаем количество информации, которое получится при бросании симметричной и однородной четырехгранной пирамидки:

I = log2 4 = 2 (бит).

2. Вероятность перового события составляет 0,5, а второго и третьего 0,25. Какое количество информации мы получим после реализации одного из них?

3. Какое количество информации будет получено при игре в рулетку с 32-мя секторами?

 4. Сколько различных чисел можно закодировать с помощью 8 бит?

 Решение: I=8 бит, K=2I=28=256 различных чисел.

   Физиологи и психологи научились определять количество информации, которое человек может воспринимать при помощи органов чувств, удерживать в памяти и подвергать обработке. Информацию можно представлять в различных формах: звуковой, знаковой и др. рассмотренный выше способ определения количества информации, получаемое в сообщениях, которые уменьшают неопределенность наших знаний, рассматривает информацию с позиции ее содержания, новизны и понятности для человека. С этой точки зрения в опыте по бросанию кубика одинаковое количество информации содержится в сообщениях «два», «вверх выпала грань, на которой две точки» и в зрительном образе упавшего кубика.

   При передаче и хранении информации с помощью различных технических устройств информацию следует рассматривать как последовательность знаков (цифр, букв, кодов цветов точек изображения), не рассматривая ее содержание.

    Считая, что алфавит (набор символов знаковой системы) — это событие, то появление одного из символов в сообщении можно рассматривать как одно из состояний события. Если появление символов равновероятно, то можно рассчитать, сколько бит информации несет каждый символ. Информационная емкость знаков определяется их количеством в алфавите. Чем из большего количества символов состоит алфавит, тем большее количество информации несет один знак. Полное число символов алфавита принято называть мощностью алфавита.

    Молекулы ДНК (дезоксирибонуклеиновой кислоты) состоят из четырех различных составляющих (нуклеотидов), которые образуют генетический алфавит. Информационная емкость знака этого алфавита составляет:

            4 = 2I, т.е. I = 2 бит.

   Каждая буква русского алфавита (если считать, что е=е) несет информацию 5 бит (32 = 2I).

   При таком подходе в результате сообщения о результате бросания кубика , получим различное количество информации, Чтобы его подсчитать, нужно умножить количество символов на количество информации, которое несет один символ.

   Количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на число знаков в сообщении.

Контрольные вопросы:

  1. Как выглядит формула Хартли?
  2. Как выглядит формула Шеннона?
  3. В чем разница между вышеперечисленными формулами?

Тема: Закон аддитивности информации и его назначение.

В окружающем нас мире предметов, процессов и явлений четко прослеживаются три уровня, ипостаси или плана (название еще не утвердилось): план материальный, план энергетический и план информационный. Сообщение о результатах выборов, например, может придти в глухую отдаленную деревню в виде газетной полосы (на материальном носителе), в виде сообщения по радио (носитель — энергетический) или любым другим способом. Существенно, что полученная информация вовсе не зависит ни от параметров материального носителя (газета, рукописный текст или каменные скрижали — все равно), ни от параметров энергетического (напряженность поля радиостанции может быть как 300 мВ/м, так и 30 мкВ/м, лишь бы была достаточной для приема).

Благодаря Клоду Шеннону и другим основоположникам теории передачи информации научились измерять ее количественно, так же, как давно умеем измерять массу и энергию. Еще в 1748 г. трудами М. В. Ломоносова установлены законы сохранения вещества и движения:

«… Все перемены, в натуре случающиеся, такого суть состояния, что сколько чего у одного тела отнимется, столько присовокупится к другому… Сей всеобщий естественный закон простирается и в самые правила движения: ибо тело, движущее своей силою другое, столько же оныя у себя теряет, сколько сообщает другому, которое от него движение получает» (Полное собрание сочинений, т. 3, 1952, с. 383).

Позднее был сформулирован и закон сохранения энергии, гласящий, что энергия любой замкнутой системы при всех происходящих в ней процессах остается постоянной. Энергия может только превращаться из одной формы в другую и перераспределяться между частями системы.

 Для незамкнутых систем увеличение или уменьшение энергии равно принятой или переданной энергии другим системам. В современной физике насчитывают довольно много законов сохранения (массы, импульса, момента импульса, энергии, заряда и т. д.). Все они относятся к замкнутым системам (не взаимодействующим с их окружением).

Давайте же, пользуясь методом аналогий, распространим законы сохранения и на информационный план бытия, сформулировав, как гипотезу, закон сохранения информации: в замкнутой системе количество информации остается неизменным.

Правомочность гипотезы в науке принято проверять приложением ее к практике. Дело это нескорое и непростое, но некоторые примеры, как кажется, хорошо иллюстрируют сформулированный закон. Обратимся к близкому и родному — линии передачи информации (см. рисунок).

Оба корреспондента по отдельности, отправитель и получатель, являются, естественно, открытыми системами, поскольку передают и принимают информацию, т. е. взаимодействуют с окружением. Но оба они вместе есть система замкнутая, поскольку взаимодействие происходит внутри нее. Получатель, приняв сообщение, увеличил свою информацию. Если сообщение утеряно, забито шумом и помехами, то ничего страшного — у отправителя то оно осталось. Потому и придуманы протоколы обмена с переспросом, корректирующие коды и тому подобное. Заметим, что отправитель, отослав сообщение, количество своей информации не убавил! По-видимому, в информационном мире несколько иные правила, нежели в энергетическом и материальном. Сообщая информацию, вы ее не теряете, а получая — приобретаете («научился сам — научи другого!»). Но с точки зрения всей замкнутой системы общее количество информации не убавилось, но и не прибавилось, ведь получатель принял то, что уже есть в системе, а заранее известное сообщение (по Шеннону) информации не добавляет. Хотя с узкой точки зрения получателя информации у него прибавилось. Тут, кажется, намечается и «принцип относительности» в информационном мире.

Осмыслив закон сохранения информации (закон аддиьивности), получаем хорошо известный вывод: замкнутые подсистемы, внутри которых произошли уже все возможные передачи сообщений, развиваться и совершенствоваться не могут. Вспомните: «вариться в собственном соку», «загнивающий коллектив» и т. д. Главный принцип развития и совершенствования подсистемы — открытость, способность к обучению, в конечном итоге к обмену, т. е. к передаче и приему информации. Любая радиолюбительская связь — тому подтверждение.

Односторонний обмен, в частности, «работа только на прием», иногда тоже не спасает. Пример: за годы «железного занавеса» отечественная радиоэлектроника почти безнадежно отстала от мировой, хотя «работа на прием» шла во всю и «цельнотянутые» серии радиоламп, транзисторов и микросхем выпускаются до сих пор. Американцы не единожды, и даже в конгрессе поднимали вопрос, не наносит ли ущерб стране открытость публикаций в технических журналах и иных изданиях? Теперь, когда гонка технологий ими выиграна, ответ получен. Ущерба и не должно быть, ведь отдавая информацию, ее не теряешь. Конечно, есть и другие немаловажные причины нашего отставания. Не затрагивая общественно-политических, упомянем лишь закрытость, связанную с чрезмерной секретностью.

Не убывание информации при ее передаче широко используют в библиотеках, банках данных, справочниках. Вопрос хранения — особый. Можно ли утерять информацию? Для мелких подсистем — да. Люди забывают, библиотечные фонды списывают и уничтожают, магнитные ленты и диски стирают. Но стоит раздвинуть границы системы шире (см. рисунок), как мы видим, что в расширенной системе информация сохраняется. Забытый телефон можно переспросить, утерянные сведения — восстановить по первоисточникам и т. д. Широкий обмен способствует сохранению информации («слово не воробей, поймают, и вылетишь!»).

Здесь надо бы различить, перефразируя Иммануила Канта («вещь в себе» и «вещь для нас»), понятия информации вообще, и информации, осмысленной нами. Последняя и приобретается и теряется, первая — нет. «Рукописи не горят». Разве законы тяготения не существовали задолго до Ньютона? И разве любое падающее яблоко не несло информацию о них? Просто Исаак Ньютон осмыслил их и представил в сжатой и понятной научному миру форме. В этом и состоит открытие. Индусы говорят больше: «каждый встреченный тобой человек — твой Великий Учитель».

Теперь огромное значение приобрел Интернет, явление, чрезвычайно интересное с философской точки зрения. Суммарный объем выкладываемой информации неудержимо растет, а разработчики создают все более совершенные накопители информации, вмещающие этот объем! Это еще одно подтверждение закона сохранения информации (закона аддитивности).

Когда появились первые авторучки (вечные перья), сочинили поговорку: «Раньше гусиными перьями писали вечные мысли, теперь же вечными перьями пишут …. мысли!». Что бы сказал автор поговорки, освоив современный компьютер? Помните, любители флейма, ваши сообщения останутся в вечности! Позвольте и мне воспользоваться Интернетом, чтобы сохранить гипотезу о законе сохранения информации.

Контрольные вопросы:

  1. О чем гласит закон аддитивности?
  2. Кто первый  заговорил об этом законе?
  3. Каково назначение закона?

Тема: Алфавитный подход к измерению информации.

Как измерить информацию? Часто мы говорим, что, прочитав статью в журнале или просмотрев новости, не получили никакой информации, или наоборот, краткое сообщение может оказаться для нас информативным. В то же время для другого человека та же самая статья может оказаться чрезвычайно информативной, а сообщение — нет. Информативными сообщения являются тогда, когда они новы, понятны, своевременны, полезны. Но то, что для одного понятно, для другого — нет.

Вопрос «как измерить информацию?» очень непростой. Существует два подхода к измерению количества информации.

Первый подход называется содержательным. В нем информация рассматривается с субъективной точки зрения, т.е. с точки зрения конкретного человека. В этом случае количество информации в сообщении не равно нулю, если сообщение пополняет знания человека.

Второй подход называется алфавитным. Этот способ не связывает количество информации с содержанием сообщения, и называется он алфавитным подходом. Алфавитный подход является объективным способом измерения информации в отличие от субъективного, содержательного, подхода. Следовательно, при алфавитном подходе к измерению информации количество информации от содержания не зависит. Количество информации зависит от объема текста (то есть от числа знаков в тексте).

Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита.

Алфавит — упорядоченный набор символов, используемый для кодирования сообщений на некотором языке.

Мощность алфавита — количество символов алфавита.
Двоичный алфавит содержит 2 символа, его мощность равна двум.
Сообщения, записанные с помощью символов ASCII, используют алфавит из 256 символов. Сообщения, записанные по системе UNICODE, используют алфавит из 65 536 символов.

Чтобы определить объем информации в сообщении при алфавитном подходе, нужно последовательно решить задачи:

  1. Определить количество информации (i) в одном символе по формуле 2i = N, где N — мощность алфавита
  2. Определить количество символов в сообщении (m)
  3. Вычислить объем информации по формуле: I = i * K.

Количество информации во всем тексте (I), состоящем из K символов, равно произведению информационного веса символа на К:

I = i * К.

Эта величина является информационным объемом текста.

Например, если текстовое сообщение, закодированное по системе ASCII, содержит 100 символов, то его информационный объем составляет 800 бит.

2i = 256  I = 8

I =  8 * 100 = 800
Для двоичного сообщения той же длины информационный объем составляет 100 бит.  

Необходимо так же знать единицы измерения информации и соотношения между ними.

Единицы измерения информации

Как уже было сказано, основная единица измерения информации — бит.

8 бит составляют 1 байт.
Наряду с байтами для измерения количества информации используются более крупные единицы:
1 Кбайт (один килобайт) = 210 байт = 1024 байта;
1 Мбайт (один мегабайт) = 210 Кбайт = 1024 Кбайт;
1 Гбайт (один гигабайт) = 210 Мбайт = 1024 Мбайт.
В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:
1 Терабайт (Тб) = 1024 Гбайт = 240 байта,
1 Петабайт (Пб) = 1024 Тбайта = 250 байта.

Контрольные вопросы:

  1. Как измеряется информация при содержательном подходе?
  2. Что такое алфавит?
  3. Что называется мощностью алфавита?
  4. Что называется объемом информации?

Тема: Данные и их кодирование. Принципы кодирования и декодирования.

1. Коды: прямой, обратный, дополнительный.

В компьютерной технике применяются три формы записи (кодирования) целых чисел со знаком: прямой код, обратный код, дополнительный код.. Последние две формы применяются особенно широко, так как позволяют упростить конструкцию арифметико-логического устройства компьютера путем замены разнообразных арифметических операций  операцией сложения.

  • Положительные числа в прямом, обратном и дополнительном кодах изображаются одинаково – с цифрой 0 в знаковом разряде.

ПРИМЕРЫ.   Число 110=12:         Число 12710=11111112

0

0

0

0

0

0

0

1

                         Знак числа «+»

  • Отрицательные числа в прямом, обратном и  дополнительном кодах имеют разное изображение.
  1. Прямой код. В знаковый ряд помещается цифра 1, а в разряды цифровой части числа – двоичный код его абсолютной величины.

ПРИМЕРЫ.   Прямой код числа -1:         Прямой код числа -127:

1

0

0

0

0

0

0

1

                          Знак числа «-»

  1. Обратный код получается инвентированием всех цифр двоичного кода абсолютной величины числа, включая разряд знака: нули заменяют единицами, а единицы – нулями.

ПРИМЕРЫ.   Число: -1.         Число: -127.

Код модуля числа:   0 0000001.        Код модуля числа:   0 1111111

Обратный код числа: 1 1111110.         Обратный код числа: 1 0000000

1

1

1

1

1

1

1

0

  1. Дополнительный код получается образованием обратного кода с последующим прибавлением единицы к его младшему разряду.

ПРИМЕРЫ.   Дополнительный код числа-1:    Дополнительный код числа-127

1

1

1

1

1

1

1

1

Обычно отрицательные десятичные числа при вводе в машину автоматически преобразуются в обратный или дополнительный двоичный код и в таком виде хранятся, перемещаются и участвуют в операциях. При вводе таких чисел из машины происходит обратное преобразование в отрицательные десятичные числа.

Контрольные вопросы:

  1. Какие формы кодирования информации вы знаете?
  2. Что происходит в прямом коде?
  3. Как получается обратный код?
  4. Как получается дополнительный код?
  5. Как кодируются положительные и отрицательные числа

Тема: Характеристика процесса передачи данных.

Режимы и коды передачи данных

  1. Структурная схема системы передачи информации.

Нужно различать понятия «информация и «сообщение». Под сообщением понимают информацию, выраженную в определенной форме и подлежащую передаче. Сообщение – это форма представления информации. FE: примерами сообщений являются: текст телеграммы, речь оратора, показания измерительного датчика, команды управления и т.д.

Структурная схема одной из характерных информационных систем в общем случае может быть представлена как:

                Сообщение                                    Сигнал                                                Помехи

0

1

1

1

1

1

1

1

                                      Знак числа «+»

1

1

1

1

1

1

1

1

                                      Знак числа «-»

1

0

0

0

0

0

0

0

1

0

0

0

0

0

0

1

                                                                                       Канал связи                        

Система состоит из отправителя информации, линии связи и получателя информации. Сообщение для передачи его в соответствующий адрес должно быть предварительно преобразовано в сигнал. Под сигналом понимается изменяющаяся физическая величина, отображающее сообщение. Сигнал – материальный переносчик сообщения, т.е. изменяющаяся физическая величина, обеспечивающая передачу информации по линии связи. Физическая среда, по которой происходит передача сигналов от передатчика к приемнику, называется линией связи.

В современной технике нашли применение электрические, электромагнитные, световые, механические, звуковые, ультразвуковые сигналы. Для передачи сообщений необходимо принять тот переносчик, который способен эффективно распределяться по используемой в системе линии связи (FE: по радиолинии эффективно распределяется только электромагнитные колебания высоких частот – от сотен кГц до дес. тысяч МГц).

  1. Классификация сигналов по дискретно-непрерывному признаку.

Все сообщения по характеру изменяющиеся во времени можно разделить на непрерывные и дискретные. Непрерывные по времени сообщения отображаются непрерывной функцией времени. Дискретные по времени сообщения характеризуются тем, что поступают в определенные моменты времени и описываются дискретной функцией t.

Сообщения также можно разделить на непрерывные и дискретные по множеству. Непрерывные множеству сообщения характеризуются тем, что функция, их описывающая, может принимать непрерывное множество значений. Дискретные по множеству сообщения – это сообщения, которые могут быть описаны с помощью конечного набора чисел или дискретных значений некоторой функции.

Дискретности по множеству и времени не связаны друг с другом. Рассмотрим возможные типы сообщений подробнее.

Пусть сигнал описывается функцией X (t)

1) непрерывные по множеству и времени, или просто непрерывные; (рис. 1.2)

2) непрерывные по множеству и дискретные по времени; (рис. 1.3)

3) дискретные по множеству и непрерывные по времени; (рис. 1.4)

4) дискретные по множеству и времени, или просто дискретные;

(рис. 1.5)

В процессе преобразования дискретных сообщений в сигнал происходит кодирование сообщения. В широком смысле кодированием называется преобразование сообщений в сигнал. В узком смысле кодирование – это отображение дискретных сообщений сигналами в виде определенных сочетаний символов. Устройство, осуществляющее кодирование называется кодером. 

При  передаче сигналы подвергаются воздействию помех. Под помехами подразумеваются  любые мешающие внешние возмущения или воздействия (атмосферные помехи, влияние посторонних источников сигналов), а также искажения сигналов в самой аппаратуре (аппаратурные помехи), вызывающие случайное отклонение принятого сообщения (сигнала) от передаваемого.

На приемной стороне осуществляется обратная операция декодирования, т.е. восстановление по принятому сигналу переданного сообщения.

Решающее устройство, помещенное после приемника, осуществляет обработку принятого сигнала с целью наиболее полного извлечения из него информации.

Декодирующее устройство, (декодер)преобразует принятый сигнал к виду удобному для восприятия получателем.

Совокупность средств, предназначенных для передачи сигнала, называется каналом связи. 

  1. Квантование и кодирование сигналов

Физические сигналы являются непрерывными функциями времени. Чтобы преобразовать непрерывный, в частности, аналоговый сигнал в цифровую форму используются аналого-цифровые преобразователи (АЦП). Процедуру аналого-цифрового преобразования сигнала обычно представляют в виде последовательности трех операций: дискретизации, квантования и кодирования.

Операция дискретизации заключается в определении выборки моментов времени измерения сигнала. Операция квантования состоит в считывании значений координаты сигнала в выбранные моменты измерения с заданным уровнем точности, а операция кодирования — в преобразовании полученных измерений сигнала в соответствующие значения некоторого цифрового кода или кодовой комбинации, которые затем передаются по каналам связи.

Процедуру восстановления непрерывного сигнала из цифрового представления также можно представить в виде двух операций: декодирования и демодуляции. Операция декодирования выполняет операцию обратную операции кодирования, т.е. преобразует последовательность заданных значений кодовой комбинации (кодовых слов) в последовательность измерений, следующих друг за другом через заданные интервалы времени дискретизации. Операция демодуляции выполняет интерполяцию или восстановление непрерывного сигнала по его измерениям. Преобразование сигнала из цифровой формы в непрерывный сигнал осуществляется цифро-аналоговыми преобразователями (ЦАП). Считается, что система аналого-цифрового и цифро-аналогового преобразований адекватна сигналу, если восстановленный непрерывный сигнал (копия) соответствует исходному непрерывному сигналу (оригиналу) с заданной погрешностью.

  1. Квантование по уровню

При квантовании по уровню непрерывное множество значений функции x(t) заменяется множеством дискретных значений. Для этого в диапазоне непрерывных значений функции x(t) выбирается конечное число дискретных значений этой функции (дискретных уровней) и в процессе квантования значение функции x(t) в каждый момент времени заменяется ближайшим дискретным значением. В результате квантования образуется ступенчатая функция xg(t).

Квантование по уровню практически может осуществляться двумя способами. При первом способе квантования мгновенное значение функции x(t) заменяется меньшим дискретным значением. При втором способе  квантования мгновенное значение функции x(t) заменяется ближайшим меньшим или большим дискретным значением в зависимости от того, какое из этих значений ближе к мгновенному значению функции. В этом случае переход ступенчатой функции с одной ступени на другую происходит в те моменты, когда первоначальная непрерывная функция x(t) пересекает середину между соответствующими соседними дискретными уровнями.

Расстояние между дискретными соседними уровнями называется интервалом или шагом квантования

Различают равномерное квантование по уровню, при котором шаг квантования постоянен, и неравномерное квантование по уровню, когда шаг квантования непостоянен. На практике преимущественное применение получило равномерное квантование в связи с простотой его технической реализации.

  1. Квантование по времени

Рассмотрим сущность понятия дискретизации сигнала x(t) применительно к детерминированной функции.

Дискретизация сигнала x(t) связана с заменой промежутка изменения независимой переменной некоторым множеством точек, т.е. операции дискретизации соответствует отображение

x(t) x(ti)

x(t) – функция, описывающая сигнал

x(ti) – функция, описывающая сигнал, полученный в результате дискретизации,

то есть в результате дискретизации исходная функция x(t) заменяется совокупностью отдельных значений x(ti). По значениям x(ti) можно восстановить исходную функцию x(t) с некоторой погрешностью. Функция, полученная в результате восстановления (интерполяции) по значениям x(ti) , называется воспроизводящей и обозначается через V(t).

При обработке сигналов дискретизация по t должна производится таким образом, чтобы по отсчетным значениям x(ti) можно было получить воспроизводящую функцию V(t), которая с заданной точностью отображает исходную функцию x(t).

При дискретизации сигналов приходится решать вопрос о том, каков должен быть шаг дискретизации:

=ti-ti-1

Контрольные вопросы:

  1. Что понимают под линией связи?
  2. Какое устройство называется декодером?
  3. Какое устройство называется решающим?
  4. Какое устройство называются декодирующим?
  5. Что называют шагом квантования?
  6. Дайте определение квантования по уровню.
  7. Дайте определение квантования по времени.

                    Тема: Пропускная способность канала связи. Теорема Шеннона

Определим пропускную способность канала как максимальное количество информации, которое можно передавать по нему в единицу времени:

                       C = max{Ixy}/ tx     (бит/с)                                                  (1)

Для канала без помех справедливо условие Ixy = Hx, а потому его пропускная способность:

Cбп = max{Hx}/ tx   = log2m / tx                                                (2)    

В частном случае передачи двоичных разрядов (m = 2) справедливо

Сбп = 1/tx                                                        (3).

Для нас важно, как соотносится величина Сбп с потоком информации источника H`z, который определяется по формуле

H`z = Hz/tz        (бит/с)                                                (4).

Пропускная способность канала используется полностью, когда H`z = C. Между тем, уменьшение энтропии Hz может привести к сокращению информационного потока. Чтобы его увеличить, требуется сократить время tz. Если учесть, что

tz = tx * lср, где lср — средняя длина кода символа, то становится ясно: чтобы полнее использовать пропускную способность канала для любого источника, нужно рационально кодировать сообщения, по возможности сокращая величину lср.

 Если записать условие полного использования пропускной способности канала H`z = C в развернутом виде, то для канала без помех оно будет иметь вид:

                  Hz/tz = log2m/tx                                                     (5),  

а с учетом tz = tx * lср и log2m = 1 (при m=2) мы получим условие:

                  lср = Hz                                                              (6)      

По сути, доказательство этой так называемой теоремы Шеннона о кодировании для канала без помех сводится к нахождению процедуры, позволяющей получить требуемый код. Эта процедура, именуемая эффективным кодированием, была предложена самим Шенноном и в дальнейшем усовершенствована (с точки зрения удобства ее практического применения) Хаффменом.

 В обоих случаях речь идет о посимвольном кодировании и величина Hz имеет значение безусловной энтропии. В принципе можно пойти дальше и рассматривать кодирование цепочек символов. В этом случае Hz будет иметь смысл условной энтропии порядка l, где l — максимальная длина цепочки. О «цепочечном» кодировании речь впереди, а пока мы рассмотрим классический подход к эффективному кодированию на уровне символов.

Пропускная способность дискретного канала с помехами

Рассмотрим теперь вариант, когда помехи в канале вызывают появление ошибок с вероятностью p0. В этом случае из соотношения 3.1 следует:

       C = max {Hx — Hx/y}/ tx  = (log2m — Hx/y) / tx                                 (7)

 Рассмотрим наиболее распространенный случай так называемого двоичного симметричного канала. При  этом m = 2 (log2m = 1), а вероятности ошибки “переход «1» в «0” ” “переход «0» в «1» ” одинаковы.

 Если теперь рассмотреть в качестве случайного события передачу разряда кода с ошибкой (вероятность p0), то, используя формулу (9) для определения энтропии, получим:

Hx/y = Hy/x = -p0 log2p0 — (1 — p0) log2(1 — p0)                             (8)

С учетом этого (9) преобразуется к виду:

                   C =  [1 — p0log2p0 — (1 — p0)log2(1 — p0)]/tx                             (9)

 Таким образом, пропускная способность симметричного двоичного канала с помехами определяется только скоростью передачи разрядов кода (Vx = 1/tx) и вероятностью ошибок.

Клод Шеннон показал, что за счет кодирования пропускную способность канала с помехами также можно использовать максимально полно (напомним, что сама она будет ниже, чем у канала без помех).

Способ кодирования, который позволяет этого добиться, основан на использовании избыточных кодов, когда каждый информационный блок защищается контрольными разрядами и чем больше длина блока, тем меньше удельный вес этих избыточных разрядов, позволяющих обнаружить и исправить ошибки.

4. Пропускная способность непрерывного канала с помехами

 На рис. 1 была показана модель дискретного канала передачи данных. Напомним, что с помощью дискретизации и квантования к дискретному виду можно свести любое непрерывное сообщение. Однако, если шаг квантования dx и шаг дискретизации dt устремить к нулю, то из модели рис. 1 мы получим частный случай непрерывного канала.

 

Рис. 1

 Источник И передает в канал непрерывное сообщение Z(t).

 Формирователь сигналов Фс преобразует его в сигнал X (t), приспособленный для передачи по аналоговому каналу.

 В линии связи ЛС на сигнал воздействуют случайные аддитивные помехи e(t) (для помех такого типа справедливо соотношение Y(t) = X(t) + e(t)).

Устройство распознавания сигнала восстанавливает сообщение Z(t) по полученному Y(t).

В этой схеме стадия кодирования вообще не рассматривается. Однако подход (кстати, предложенный опять-таки Клодом Шенноном) основан на тех же принципах, что и для дискретного канала, потому нам целесообразно рассмотреть этот вопрос именно здесь.

Вернемся к определению пропускной способности канала связи:

                   Cбп = max{Ixy} / tx  = max{Hx } / tx                                  (10)    

Величина tx в нашем случае соответствует шагу дискретизации сигнала dt. Согласно теореме Котельникова, непрерывный сигнал можно полностью восстановить по его дискретным отсчетам, если шаг дискретизации dt вдвое меньше периода самой высокочастотной составляющей fm сигнала (dt = 1/2fm). Учитывая, что любой физический канал связи всегда имеет ограниченную полосу частот, которые он в состоянии пропустить, величину fm (а следовательно и dt) можно определить исходя из характеристик канала.

Если значение dx конечно, то непрерывный канал можно рассматривать как дискретный с объемом алфавита m = xm/dx + 1. Если к тому же в канале отсутствуют помехи (Hx/y = 0), то соотношение (4.11) можно преобразовать к виду:

          C = max {Hx} / dt = 2fm * log2m  = 2fm * log2 (xm/ dx + 1)                     (11)

         Отсюда видно, что пропускная способность непрерывного канала без помех (dx -> 0) стремится к бесконечности. Однако, в реальном канале помехи присутствуют всегда, при этом сколько бит информации удается «нагрузить» на один дискретный отсчет, зависит от соотношения мощности полезного сигнала на входе приемника и помехи Pс/Pп.

Клод Шеннон показал, что в случае наиболее «неприятной» помехи типа «белый шум», чья мощность равномерно распределена во всей полосе частот канала, справедливо соотношение:

    Cn = fm log2(Pс/Pп + 1)                                       (12)     

Доказательство этой теоремы Шеннона о пропускной способности непрерывного канала весьма громоздко и мы не станем его рассматривать. Остановимся на анализе самой формулы. Итак  пропускная способность непрерывного канала с помехами:

— пропорциональна ширине полосы частот канала fm;

— возрастает с увеличением отношения полезный сигнал/помеха (в этом случае будет уверенно распознаваться на фоне помех);

— не равна нулю даже при Pc << Pп (то-есть, передачу информации принципиально можно вести сигналами более слабыми, чем помехи).

Мы вернемся к использованию соотношения Шеннона 4.13 при рассмотрении вопросов передачи сигналов.

Контрольные вопросы:

  1. Определите пропускную способность непрерывного канала без помех.
  2. Определите пропускную способность непрерывного канала с помехами.
  3. Опишите назначение: источника, формирователя сигналов.
  4. Как воздействует сигнал в линии связи?
  5. Как работает устройство распознавания?

Тема: Методы повышения помехозащищенности и помехоустойчивости передачи и приема данных.

Одна и та же линия связи может использоваться для передачи сигналов между многими источниками и приемниками, т.е. линия связи может обслуживать несколько каналов.

При синтезе систем передачи информации приходится решать две основные проблемы, связанные с передачей сообщений:

  1. обеспечение помехоустойчивости передачи сообщений
  2. обеспечение высокой эффективности передачи сообщений

Под помехоустойчивостью понимается способность информации противостоять вредному воздействию помех. При данных условиях, т.е. при заданной помехе, помехоустойчивость определяет верность передачи информации. Под верностью  понимается мера соответствия принятого сообщения (сигнала) переданному сообщению (сигналу).

Под эффективностью системы передачи информации понимается способность системы обеспечивать передачу заданного количества информации наиболее экономичным способом. Эффективность характеризует способность системы обеспечить передачу данного количества информации с наименьшими затратами мощности сигнала, времени и полосы частот.

Теория информации устанавливает критерии оценки помехоустойчивости и эффективности  информационных систем, а также указывает общие пути повышения помехоустойчивости и эффективности.

Повышение помехоустойчивости практически всегда сопровождается ухудшением эффективности и наоборот.

Методы повышения помехоустойчивости

В основах всех способов повышения помехоустойчивости информационных систем лежит использование определенных различий  между полезным сигналом и помехой. Поэтому для борьбы с помехами необходимы априорные сведения о свойствах помехи и сигнала.

В настоящее время известно большое число способов повышения помехоустойчивости систем. Эти способы удобно разбить на две группы.

I группа – основана на выборе метода передачи сообщений.

II группа – связана с построением помехоустойчивых приемников.

Простым и применяемым способом повышения помехоустойчивости является увеличение отношения сигнал/помеха за счет увеличения мощности передатчика. Но этот метод может оказаться экономически не выгодным, так как связан с существенным ростом сложности и стоимости оборудования. Кроме того, увеличение мощности передачи сопровождается усилением мешающего действия данного канала на другие.

Важным способом повышения помехоустойчивости передачи непрерывных сигналов  является рациональный выбор вида модуляции сигналов. Применяя виды модуляции, обеспечивающие значительное расширение полосы частот сигнала, можно добиться существенного повышения помехоустойчивости передачи.

Радикальным способом повышения помехоустойчивости передачи дискретных сигналов является использование специальных помехоустойчивых кодов. При этом имеется два пути повышения помехоустойчивости кодов:

  1. Выбор таких способов передачи, которые обеспечивают меньшую вероятность искажения кода;
  2. Увеличение корректирующих свойств кодовых комбинаций. Этот путь связан с использованием кодов, позволяющих обнаруживать и устранять искажения  в кодовых комбинациях. Такой способ кодирования связан с введением в код дополнительных, избыточных символов, что сопровождается увеличением времени передачи или частоты передачи символов кода.

Повышение помехоустойчивости передачи может быть также достигнуто путем повторной передачи одного и того же сообщения.  На приемной стороне сравниваются полученные сообщения и в качестве истинных принимаются те, которые имеют наибольшее число совпадений. Чтобы исключить неопределенность при обработке принятой информации и обеспечить отбор по критерию большинства, сообщение должно повторяться не менее трёх раз. Этот способ повышения помехоустойчивости связан с увеличением времени передачи.

Системы с повторением передачи дискретной информации делятся на системы с групповым суммированием, у которых сравнение производится по кодовым комбинациям, и на системы с посимвольным суммированием, у которых сравнение осуществляется по символам кодовых комбинаций. Посимвольная проверка является более эффективной, чем групповая.

Разновидность систем, у которых повышение помехоустойчивости достигается за счет увеличения времени передачи, являются системы с обратной связью. При наличии искажений в передаваемых сообщениях информация, поступающая по обратному каналу, обеспечивает повторение передачи. Наличие обратного канала приводит к усложнению системы. Однако в отличие от систем с повторением передачи в системах с обратной связью повторение передачи будет иметь место лишь в случае обнаружения искажений в передаваемом сигнале, т.е. избыточность в целом оказывается меньшей.

Помехоустойчивый прием состоит в использовании избыточности, а также априорных сведений о сигналах и помехах для решения оптимальным способом задачи приема: обнаружения сигнала, различия сигналов или восстановления сообщений. В настоящее время для синтеза оптимальных приемников широко используется аппарат теории статистических решений.

Ошибки приемника уменьшаются с увеличением отношения сигнал/помеха на входе приемника. В связи с этим часто производят предварительную обработку принятого сигнала с целью увеличения отношений полезной составляющей к помехе. К таким методам предварительной обработки сигналов относится метод ШОУ (сочетание широкополосного усилителя, ограничителя и узкополосного усилителя), селекция сигналов по длительности, метод компенсации помехи, метод фильтрации, корреляционный метод, метод накопления и др.

Рассмотрим простые практические способы построения кодов, способных обнаруживать и исправлять ошибки. Ограничимся рассмотрением двоичных каналов и равномерных кодов.

Метод контроля четности. Это простой способ обнаружения некоторых из возможных ошибок. Будем использовать в качестве разрешенных половину возможных кодовых комбинаций, а именно те из них, которые имеют четное число единиц (или нулей). Однократная ошибка при передаче через канал неизбежно приведет к нарушению четности, что и будет обнаружено на выходе канала. Очевидно, что трехкратные, пятикратные и вообще ошибки нечетной кратности ведут к нарушению четности и обнаруживаются этим методом, в то время как двукратные, четырехкратные и вообще ошибки четной кратности – нет.

Практическая техника кодирования методом контроля четности следующая. Из последовательности символов, подлежащих передаче через канал, выбирается очередной блок из k-1символов, называемых информационными, и к нему добавляется  k-й символ, называемый контрольным. Значение контрольного символа выбирается так, чтобы обеспечить четность получаемого кодового слова, т.е. чтобы сделать его разрешенным.

Метод контроля четности представляет значительную ценность и широко применяется в тех случаях, в которых вероятность появления более одной ошибки пренебрежимо мала (во многих случаях, если наверняка знать, что кодовое слово принято с ошибкой, имеется возможность запросить повторную передачу). В то же время избыточность кода увеличивается минимально и незначительно при больших kk/( k-1)раз).

Метод контрольных сумм. Рассмотренный выше метод контроля четности может быть применен многократно для различных комбинаций разрядов передаваемых кодовых слов – и это позволит не только обнаруживать, но и исправлять определенные ошибки.

Контрольные вопросы:

  1. Дайте определение помехоустойчивости.
  2. Что понимают под эффективностью системы?
  3. Перечислите методы повышения помехоустйчивости.
  4. Расскажите о методе контроля четности.
  5. Что собой представляет метод контрольных сумм?

Тема: Понятие об оптимальном кодировании   информации

Большинство кодов, используемых при кодировании информации без учета статистических свойств источника и помех в канале связи, основано на системах счисления (двоичной, десятичной, восьмеричной, шестнадцатеричной).

Общепризнанным в настоящее время является позиционный принцип образования системы счисления. Значение каждого символа (цифры) зависит от его положения — позиции в ряду символов, представляющих число. Единица каждого следующего разряда больше единицы предыдущего в т раз, где т — основание системы счисления. Полное число получаем, суммируя значения по разрядам. (Пример: в десятичном коде 11110, т =10; младший разряд — 1, второй — 10, третий — 100, то есть единица старшего разряда в десять раз больше единицы предыдущего разряда — единицы, десятки, сотни; также и в других системах счисления.)

Чем больше основание системы счисления, тем меньшее число разрядов требуется для представления данного числа, а следовательно, и меньшее время для его передачи. Однако с ростом основания усложняются устройства передачи и приема сигналов, так как логические элементы в этом случае должны иметь большее число устойчивых состояний. Если учитывать оба эти обстоятельства, то целесообразно выбрать систему, обеспечивающую минимум произведения основания кода т на количество разрядов n для выражения любого числа. Найдем этот минимум по графику для большого числа 6000010.

Рисунок 1.  График зависимости числа разрядов п от основания кода т для числа 60000

Из графика следует, что наиболее эффективной системой является троичная. Незначительно уступают ей двоичная и четверичная. Системы с основанием десять и более значительно хуже.

С точки зрения удобства физической реализации логических элементов и простоты выполнения в них арифметических и логических действий, предпочтение необходимо отдать двоичной системе.

Действительно, арифметические операции в двоичной системе достаточно просты: сложение         вычитание         умножение

0+0=0;            0 — 0=0;         0·0=0;

0+1=1;                   1 — 0=1;         0·1=1;

1+0=1;             1 — 1=0;         1·0=1;

1+1=10;           10 — 1=1         1·1=1

Сложение по модулю в двоичной системе также просто:

00=0;

01=1;

11=0;

10=1

Итак, для передачи и проведения логических и арифметических операций наиболее целесообразен двоичный код. Однако он неудобен при вводе и выводе информации, так как человеку трудно оперировать с непривычными двоичными числами. Кроме того, запись таких чисел на бумаге оказывается слишком громоздкой. Поэтому помимо двоичной получили распространение системы, которые, с одной стороны, легко сводятся как к двоичной, так и к десятичной системе, а с другой — дают более компактную запись. К таким системам относятся восьмеричная, шестнадцатеричная и двоично-десятичная.

В восьмеричной системе для записи всех возможных чисел используется восемь цифр — от нуля до семи включительно. Перевод чисел из восьмеричной системы в двоичную крайне прост и сводится к замене каждой восьмеричной цифры равным ей трехразрядным двоичным числом. Например, для восьмеричного числа 745 получим:

Поскольку в восьмеричной системе числа выражаются короче, чем в двоичной, она широко используется как вспомогательная система при программировании (особенно для микро- и мини-ЭВМ в машинных кодах).

Чтобы сохранить преимущества двоичной системы, используют двоично-десятичные коды. В таком коде каждая цифра десятичного числа записывается в виде четырехразрядного двоичного числа. С помощью четырех разрядов можно образовать шестнадцать различных комбинаций, из которых любые десять могут составить двоично-десятичный код. Наиболее распространен код 8-4-2-1. Этот код относится к взвешенным кодам. Цифры в названии кода означают вес единиц в соответствующих двоичных разрядах. Он соответствует первым десяти комбинациям натурального двоичного кода (табл. 1).

Таблица 1

Число в десятичном

Коде

Двоично-десятичный

код 8-4-2-1

Двоично-десятичный

код 5-1-2-1

0

0000

0000

1

0001

0001

2

0010

0010

3

0011

0011

4

0100

0111

5

0101

1000

6

0110

1001

7

0111

1010

8

1000

1011

    9

     1001

1111

Код 8-4-2-1 обычно используется как промежуточный при введении в вычислительную машину данных, представленных в десятичном коде.

Перевод чисел из десятичного в двоично-десятичный код осуществляется перфоратором в процессе переноса информации на перфоленту или перфокарту. Последующее преобразование в двоичный код осуществляется по специальной программе в самой машине. Двоично-десятичные коды с весами 5-1-2-1 и 2-4-2-1 используются при поразрядном уравновешивании в цифровых измерительных приборах (цифровые вольтметры и т.п.).

Недостатки взвешенных кодов: при передаче информации по каналам связи под действием помех отдельные элементы кода могут так исказиться, что будут приняты неверно. Например, вместо «0» будет принят элемент «1» или наоборот. Если будет искажен старший разряд, то ошибка будет значительно больше, чем при искажении младшего разряда. С этой точки зрения лучше применять невзвешенный код, у которого ошибки, вызванные помехами, были бы одинаковыми для любого разряда.

В невзвешенных кодах позициям (разрядам) кодовой комбинации не приписывают определенных весов. Вес имеет лишь вся кодовая комбинация в совокупности. Рассмотрим невзвешенный двоичный рефлексный код Грея (табл. 2).

Таблица 2

Десятичное

число

Двоичный код

вес 8-4-2-1

Код Грея

0

0000

0000

1

0001

0001

2

0010

0011

3

0011

0010

4

0100

0110

5

0101

0111

6

0110

0101

7

0111

0100

8

1000

1100

9

1001

1101

15

1111

1000

Правило получения кода Грея: кодовую комбинацию натурального двоичного кода складывают по модулю 2 с такой же комбинацией, сдвинутой на один разряд вправо, при этом младший разряд сдвинутой комбинации отбрасывается.

Характерные особенности кода Грея:

1) каждая последующая комбинация всегда отличается от предыдущей только в одной позиции (в одном разряде);

2) смена значений элементов в каждом разряде (1 на 0 или 0 на 1) при переходе от комбинации к комбинации в коде Грея происходит вдвое реже, чем в натуральном двоичном коде. Это свойство кода Грея позволяет получить точность кодирования выше по сравнению с натуральным двоичным кодом при том же быстродействии схемы кодирования;

3) при сложении двух соседних комбинаций кода Грея по модулю 2 (mod2) число единиц равно числу разрядов минус три (n-3). Это свойство кода Грея можно использовать для проверки правильности принятых комбинаций.

В коде Грея можно выделить оси симметрии (оси отражения), относительно которых наблюдается идентичность элементов в некоторых разрядах. Так, например, имеет место симметрия относительно оси, проведенной между числами 7 и 8 (идентичны три символа младших разрядов). Эта особенность и послужила основанием для введения термина «рефлексный», то есть отраженный код.

Рассмотренные свойства кода Грея показывают, что он удобен для аналого-цифрового преобразования различных непрерывных сообщений и их передачи по каналам связи (сервосистемы).

Недостатком кода Грея и других рефлексных кодов является то, что эти коды невзвешенные, их трудно обрабатывать с помощью ЭВМ, так как сложнее выполнять декодирование.

Преобразование кода Грея в натуральный двоичный код выполняется по правилу: старший разряд записывается без изменения, каждый следующий символ кода Грея нужно инвертировать, если в натуральном коде перед этим была получена «1», и оставить без изменения, если в натуральном коде был получен «0». (Пример: 910=1101гр =10012).

Контрольные вопросы:

  1. Что такое триады?
  2. Что такое тетрады?
  3. Достоинства и недостатки взвещенных кодов.
  4. Характерные особенности кода Грея.
  5. Правила преобразования кода Грея.

Тема: Кодирование символьной и числовой информации.

Одна и та же информация может быть представлена (закодирована) в нескольких формах. C появлением компьютеров возникла необходимость кодирования всех видов информации, с которыми имеет дело и отдельный человек, и человечество в целом. Но решать задачу кодирования информации человечество начало задолго до появления компьютеров. Грандиозные достижения человечества — письменность и арифметика — есть не что иное, как система кодирования речи и числовой информации. Информация никогда не появляется в чистом виде, она всегда как-то представлена, как-то закодирована.

Двоичное кодирование – один из распространенных способов представления информации. В вычислительных машинах, в роботах и станках с числовым программным управлением, как правило, вся информация, с которой имеет дело устройство, кодируется в виде слов двоичного алфавита.

Кодирование символьной (текстовой) информации.

Основная операция, производимая над отдельными символами текста — сравнение символов.

При сравнении символов наиболее важными аспектами являются уникальность кода для каждого символа и длина этого кода, а сам выбор принципа кодирования практически не имеет значения.

Для кодирования текстов используются различные таблицы перекодировки. Важно, чтобы при кодировании и декодировании одного и того же текста использовалась одна и та же таблица.

Таблица перекодировки — таблица, содержащая упорядоченный некоторым образом перечень кодируемых символов, в соответствии с которой происходит преобразование символа в его двоичный код и обратно.

Наиболее популярные таблицы перекодировки: ДКОИ-8, ASCII, CP1251, Unicode.

Исторически сложилось, что в качестве длины кода для кодирования символов было выбрано 8 бит или 1 байт. Поэтому чаще всего одному символу текста, хранимому в компьютере, соответствует один байт памяти.

Различных комбинаций из 0 и 1 при длине кода 8 бит может быть 28 = 256, поэтому с помощью одной таблицы перекодировки можно закодировать не более 256 символов. При длине кода в 2 байта (16 бит) можно закодировать 65536 символов.

Кодирование числовой информации.

Сходство в кодировании числовой и текстовой информации состоит в следующем: чтобы можно было сравнивать данные этого типа, у разных чисел (как и у разных символов) должен быть различный код. Основное отличие числовых данных от символьных заключается в том, что над числами кроме операции сравнения производятся разнообразные математические операции: сложение, умножение, извлечение корня, вычисление логарифма и пр. Правила выполнения этих операций в математике подробно разработаны для чисел, представленных в позиционной системе счисления.

Основной системой счисления для представления чисел в компьютере является двоичная позиционная система счисления.

Кодирование текстовой информации

В настоящее время, большая часть пользователей, при помощи компьютера обрабатывает текстовую информацию, которая состоит из символов: букв, цифр, знаков препинания и др. Подсчитаем, сколько всего символов и какое количество бит нам нужно.

10 цифр, 12 знаков препинания, 15 знаков арифметических действий, буквы русского и латинского алфавита, ВСЕГО: 155 символов, что соответствует 8 бит информации.

Суть кодирования заключается в том, что каждому символу ставят в соответствие двоичный код от 00000000 до 11111111 или соответствующий ему десятичный код от 0 до 255.

Необходимо помнить, что в настоящее время для кодировки русских букв используют пять различных кодовых таблиц (КОИ — 8, СР1251, СР866, Мас, ISO), причем тексты, закодированные при помощи одной таблицы не будут правильно отображаться в другой

Основным отображением кодирования символов является код ASCII — American Standard Code for Information Interchange- американский стандартный код обмена информацией, который представляет из себя таблицу 16 на 16, где символы закодированы в шестнадцатеричной системе счисления.

Контрольные вопросы:

  1. Как происходит кодирование символьной  информации?
  2. Как происходит кодирование числовой  информации?
  3. Как происходит кодирование (текстовой) информации?

Тема: Кодирование графической информации. 

Важным этапом кодирования графического изображения является разбиение его на дискретные элементы (дискретизация).

Основными способами представления графики для ее хранения и обработки с помощью компьютера являются растровые и векторные изображения

Векторное изображение представляет собой графический объект, состоящий из элементарных геометрических фигур (чаще всего отрезков и дуг). Положение этих элементарных отрезков определяется координатами точек и величиной радиуса. Для каждой линии указывается двоичные коды типа линии (сплошная, пунктирная, штрихпунктирная), толщины и цвета.

Растровое изображение представляет собой совокупность точек (пикселей), полученных в результате дискретизации изображения в соответствии с матричным принципом.

Матричный принцип кодирования графических изображений заключается в том, что изображение разбивается на заданное количество строк и столбцов. Затем каждый элемент полученной сетки кодируется по выбранному правилу.

Pixel (picture element — элемент рисунка) — минимальная единица изображения, цвет и яркость которой можно задать независимо от остального изображения.

В соответствии с матричным принципом строятся изображения, выводимые на принтер, отображаемые на экране дисплея, получаемые с помощью сканера.

Качество изображения будет тем выше, чем «плотнее» расположены пиксели, то есть чем больше разрешающая способность устройства, и чем точнее закодирован цвет каждого из них.

Для черно-белого изображения код цвета каждого пикселя задается одним битом.

Если рисунок цветной, то для каждой точки задается двоичный код ее цвета.

Поскольку и цвета кодируются в двоичном коде, то если, например, вы хотите использовать 16-цветный рисунок, то для кодирования каждого пикселя вам потребуется 4 бита (16=24), а если есть возможность использовать 16 бит (2 байта) для кодирования цвета одного пикселя, то вы можете передать тогда 216 = 65536 различных цветов. Использование трех байтов (24 битов) для кодирования цвета одной точки позволяет отразить 16777216 (или около 17 миллионов) различных оттенков цвета — так называемый режим “истинного цвета” (True Color). Заметим, что это используемые в настоящее время, но далеко не предельные возможности современных компьютеров.

Контрольные вопросы:

  1. Что такое дискретизация?
  2. Что такое растровое изображение?
  3. Что такое векторное изображение?
  4. Что называется пикселем?
  5. В чем заключается матричный принцип кодирования графических изображений?

Тема: Кодирование звуковой информации. Кодирование видеоинформации

1. Кодирование звуковой информации.

Человек выражает свои мысли в виде предложений, составленных из слов. Они являются алфавитным представлением информации. Основу любого языка составляет алфавит — конечный набор различных знаков (символов) любой природы, из которых складывается сообщение.

Для представления информации могут использоваться разные коды и, соответственно, надо знать определенные правила — законы записи этих кодов, т.е. уметь кодировать.

Код — набор условных обозначений для представления информации.

Кодирование — процесс представления информации в виде кода.

Всем известно, что для общения друг с другом мы используем код — русский язык. При разговоре этот код передается звуками, при письме — буквами. Водитель передает сигнал с помощью гудка или миганием фар. Вы встречаетесь с кодированием информации при переходе дороги в виде сигналов светофора. Таким образом, кодирование сводиться к использованию совокупности символов по строго определенным правилам.

Нельзя не сказать о том, что одно из основных достоинств компьютера связано с тем, что это удивительно универсальная машина. Каждый, кто хоть когда-нибудь с ним сталкивался, знает, что занятие арифметическими подсчетами составляет совсем не главный метод использования компьютера. Компьютеры прекрасно воспроизводят музыку и видеофильмы, с их помощью можно организовывать речевые и видеоконференции в Интернет, создавать и обрабатывать графические изображения, а возможность использования компьютера в сфере компьютерных игр на первый взгляд выглядит совершенно несовместимой с образом суперарифмометра, перемалывающего сотни миллионов цифр в секунду.

Итак, кодирование информации – это процесс формирования определенного представления информации. В более узком смысле под термином «кодирование» часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.

Интересен тот факт, что с начала 90-х годов персональные компьютеры получили возможность работать со звуковой информацией. Каждый компьютер, имеющий звуковую плату, микрофон и колонки, может записывать, сохранять и воспроизводить звуковую информацию.

Звук представляет собой звуковую волну с непрерывно меняющейся амплитудой и частотой. Чем больше амплитуда, тем он громче для человека, чем больше частота сигнала, тем выше тон. Программное обеспечение компьютера в настоящее время позволяет непрерывный звуковой сигнал преобразовывать в последовательность электрических импульсов, которые можно представить в двоичной форме, а именно по такой схеме:

Процесс преобразования звуковых волн в двоичный код в памяти компьютера:


wpe9.gif (2090 bytes)

Процесс воспроизведения звуковой информации, сохраненной в памяти ЭВМ:

wpeA.gif (2063 bytes)

Описанный способ кодирования звуковой информации достаточно универсален, он позволяет представить любой звук и преобразовывать его самыми разными способами. Но бывают случаи, когда выгодней действовать по-иному.

Издавна используется довольно компактный способ представления музыки – нотная запись. В ней специальными символами указывается, какой высоты звук, на каком инструменте и как сыграть. Фактически, ее можно считать алгоритмом для музыканта, записанным на особом формальном языке. В 1983 ведущие производители компьютеров и музыкальных синтезаторов разработали стандарт, определивший такую систему кодов. Он получил название MIDI.

Конечно, такая система кодирования позволяет записать далеко не всякий звук, она годится только для инструментальной музыки. Но есть у нее и неоспоримые преимущества: чрезвычайно компактная запись, естественность для музыканта (практически любой MIDI-редактор позволяет работать с музыкой в виде обычных нот), легкость замены инструментов, изменения темпа и тональности мелодии.

Есть и другие, чисто компьютерные, форматы записи музыки. Среди них – формат MP3, позволяющий с очень большим качеством и степенью сжатия кодировать музыку, при этом вместо 18–20 музыкальных композиций на стандартном компакт-диске (CDROM) помещается около 200. Одна песня занимает, примерно, 3,5 Mбайт, что позволяет пользователям сети Интернет легко обмениваться музыкальными композициями.

2. Кодирование видеоинформации.

Особое внимание также уделяют кодированию видеоинформации. Чтобы хранить и обрабатывать видео на компьютере, необходимо закодировать его особым образом.

Изображение в видео состоит из отдельных кадров, которые меняются с определенной частотой. Кадр кодируется как обычное растровое изображение, то есть разбивается на множество пикселей. Закодировав отдельные кадры и собрав их вместе, мы сможем описать все видео.

Отметим то, что видеоданные характеризуются частотой кадров и экранным разрешением. Скорость воспроизведения видеосигнала составляет 30 или 25 кадров в секунду, в зависимости от телевизионного стандарта. Наиболее известными из таких стандартов являются: SECAM, принятый в России и Франции, PAL, используемый в Европе, и NTSC, распространенный в Северной Америке и Японии.

Разрешение для стандарта NTSC составляет 768 на 484 точек, а для PAL и SECAM – 768 на 576 точек. Но не все пиксели используются для хранения видеоинформации. Так, при стандартном разрешении 768 на 576 пикселей, на экране телевизора отображается всего 704 на 540 пикселей. Поэтому для хранения видеоинформации в компьютере или цифровой видеокамере, размер кадра может отличаться от телевизионного. Например, в формате Digital Video или, как его еще называют DV, размер кадра составляет 720 на 576 пикселей. Такое же разрешение имеет кадр стандарта DVD Video. Размер кадра формата Video-CD составляет 352 на 288 пикселей.

Если представить каждый кадр изображения как отдельный рисунок, то видеоизображение будет занимать очень большой объем, например, одна секунда записи в системе PAL будет занимать 25 Мбайт, а одна минута – уже 1,5 Гбайт. Поэтому на практике используются различные алгоритмы сжатия для уменьшения скорости и объема потока видеоинформации.

Кодирование видеоинформации еще более сложная проблема, чем кодирование звуковой информации, так как нужно позаботиться не только о дискретизации непрерывных движений, но и о синхронизации изображения со звуковым сопровождением. В настоящее время для этого используется формат, которой называется AVI (Audio-Video Interleaved — чередующееся аудио и видео).

Основные мультимедийные форматы AVI и WAV очень требовательны к памяти. Поэтому на практике применяются различные способы компрессии, то есть сжатия звуковых и видеокодов. В настоящее время стандартными стали способы сжатия, предложенные MPEG (Moving Pictures Experts Group — группа экспертов по движущимся изображениям). В частности, стандарт MPEG-1 описывает несколько популярных в настоящее время форматов записи звука. Так, например, при записи в формате МР-3 при практически том же качестве звука требуется в десять раз меньше памяти, чем при использовании формата WAV. Существуют специальные программы, которые преобразуют записи звука из формата WAV в формат МР-3. Стандарт MPEG-2 описывает методы сжатия видеозаписей, которые обеспечивают телевизионное качество изображения и стереозвуковое сопровождение и имеют приемлемые требования к памяти. Совсем недавно был разработан стандарт MPEG-4, применение которого позволяет записать полнометражный цветной фильм со звуковым сопровождением на компакт-диск обычных размеров и качества.

Контрольные вопросы:

  1. Что такое код?
  2. Что понимают под кодированием?
  3. Как происходит кодирование звуковой информации?
  4. Как происходит кодирование графической информации?
  5. Какие стандарты кодирования видеоинформации существуют?

Тема: Сжатие графической и видеоинформации. Методы сжатия.

  1. Обзор подходов к сжатию информации

Как уже было сказано, дискретная форма представления информации является наиболее общей и универсальной. В виде совокупности символов, принадлежащих к ограниченному алфавиту, можно представить как текст или массивы чисел, так и оцифрованные звук и изображение. С учетом этого очевидно, что должны существовать универсальные методы сжатия данных (цифровой информации), применимые ко всем ее разновидностям. В силу своей универсальности эти методы должны исключать потерю информации (такая потеря может быть допустима при передаче, например мелкой детали изображения, но неприемлема, когда речь идет, скажем, о коде программы). С другой стороны, в ряде приложений общие методы наверняка не будут наиболее эффективными. Например, в силу особенностей зрительного и слухового восприятия, некоторое «огрубление» изображения или звука может оказаться малозаметным, при этом выигрыш в объеме передаваемых данных окажется значительным. В этих случаях уместно использовать специальные методы сжатия с потерями (рис.5.1).

При кодировании со сжатием без потерь выделяются две разновидности методов: Первая основана на раздельном кодировании символов. Основная идея состоит в том, что символы разных типов встречаются неодинаково части и если кодировать их неравномерно, — так, чтобы короткие битовые последовательности соответствовали часто встречающимся символам, — то в среднем объем, кода будет меньше. Такой подход, именуемый, статистическим кодированием, реализован, в частности, в широко распространенном коде Хаффмана, о котором мы расскажем подробно ниже.

Очевидно, что посимвольное кодирование не использует такого важного резерва сжатия данных, как учет повторяемости последовательностей (цепочек) символов.

Простейший вариант учета цепочек – так называемое «кодирование повторов» или код RLE, когда последовательность одинаковых символов заменяется парой – «код символа + количество его повторов в цепочке». В большинстве случаев цепочки  одинаковых символов встречаются нечасто. Однако, например, при кодировании черно-белых растровых изображений, каждая строка которых состоит из последовательных черных или белых точек, такой подход оказывается весьма эффективным (он широко применяется при факсимильной передаче документов). Кроме того, кодирование повторов нередко используется как составной элемент более сложных алгоритмов сжатия.

Гораздо более универсальным является алгоритм, позволяющий эффективно кодировать повторяющиеся цепочки разных символов, имеющие при этом произвольную длину. Такой алгоритм был разработан Лемпелем и Зивом и применяется в разных версиях в большинстве современных программ-архиваторов. Идея алгоритма состоит в том, что цепочка символов, уже встречавшаяся в передаваемом сообщении, кодируется ссылкой на боле раннюю (при этом указываются «адрес» начала такой цепочки в «словаре» сообщения и ее длина). Ниже мы обсудим особенности алгоритма  Лемпеля-Зива.

Специализированные методы сжатия с потерями информации, естественно принципиально различаются для графики и звука.

К методам сжатия изображений относятся «блочный» алгоритм JPEG основанный на независимом «огрублении» небольших фрагментов изображений (квадраты 8х8 пикселей). Здесь с ростом степени сжатия проявляется мозаичность изображения. Блочный метод JPEG (разработанный специальной группой международного комитета по стандартизации) получил сейчас повсеместное распространение и ниже мы рассмотрим его подробнее. Достигается степень сжатия – в среднем в десятки раз.

При волновом сжатии в отличие от блочного изображение как бы «размывается» (чем выше степень сжатия, тем более нечетки границы и детали). При передаче данных получаемое изображение постепенно «проявляется» в деталях. Это позволяет получателю самому выбирать необходимый компромисс между качеством и скоростью получения изображения, что очень удобно, например в Интернет. К тому же «размытость» не столь резко воспринимается глазом как потеря качества по сравнению с «мозаичностью». Так что при субъективно близком уровне качества волновой метод дает  большую степень сжатия по сравнению  с «блочным». Именно такой подход реализован в новом стандарте JPEG 2000.

Наконец, фрактальное сжатие основывается на том, что в изображении можно выделить фрагменты, повороты и масштабирование которых позволяет многократно использовать их при построении всей «картинки». Выделение и построение математического описания таких элементов-фракталов – трудоемкая в вычислительном отношении задача. Зато высокая степень сжатия  (в сотни раз) и быстрота построения изображения по его фрактальному описанию делают метод очень удобным, когда не требуется быстрота компрессии. Например, этот метод удобно использовать при записи изображений на CD-ROM.

Наконец, методы сжатия звука существенно различаются в зависимости от того, насколько хорошо известны специфические особенности его источника. Примерами источников, чьи особенности решающим образом влияют на характер звука, являются человеческий речевой аппарат и музыкальные инструменты. Для них эффективным способом сжатия звуковой информации является моделирование, когда передаются не характеристика звука, а параметры модели его источника.

Что касается методов сжатия звука от произвольного источника, мы рассмотрим их ниже.

2. Эффективное посимвольное кодирование для сжатия данных.

Основные моменты сводятся к следующему:

  • идея такого кодирования базируется на том, чтобы использовать для часто встречающихся символов более короткие кодовые цепочки, а для редких — более длинные. В результате средняя длина кода  будет меньше, чем при равномерном кодировании;
  • согласно теореме Шеннона, наилучшее кодирование позволяет сократить lср. до величены энтропии Н, подсчитанной для данного набора символов;
  • неравномерное кодирование позволяет автоматически устранить избыточность, связанную с тем, что количество символов в алфавите может быть не кратно степени двойки (так, например, чтобы закодировать одинаковым числом разрядов 5 разновидностей символов потребуется 3 бита, так же как и для 8 символов).

Идея неравномерного кодирования, в котором длина кодовой цепочки зависит от частоты появления соответствующего символа, реализована еще в знаменитой «азбуке Морзе». Однако там наряду с «точками» и «тире» использовался третий кодовый символ – разделитель «пауза». Если ограничиться только «O» и «1», то при построении кода необходимо учесть дополнительное требование: чтобы все кодовые цепочки однозначно выделялись в непрерывном потоке битов, ни одна из них не должна входить как начальный участок в кодовую, цепочку  другого символа. Такое свойство кода называется префиксностью.

Наибольшее распространение получил способ построения эффективного кода предположенный Хаффменом. Рассмотрим его на примере. Пусть задан алфавит из 5 разновидностей символов Z1 – Z5, и их вероятности. В таблице 5.1 наряду с этими исходными данными приведены так же результаты кодирования по Хаффмену: кодовые цепочки Ki их длинны li. Процедуру построения кода иллюстрирует таблица и рисунок 1

На первом этапе  символы упорядочивают по убыванию вероятностей, а затем  выполняют несколько шагов «объединения», на каждом из которых суммируются вероятности наиболее редко встречающихся символов и столбец вероятностей  пересортировывается .

Пример кода Хаффмена

                                                           1

Zi

Pi

Ki

li

Z1

Z2

Z3

Z4

Z5

0,25

0,17

0,08

0,35

0,15

10

00

010

11

011

2

2

3

2

3

lср

На втором этапе строится «дерево кода», ветви которого отображают в обратном порядке процесс «объединения вероятностей». При построении дерева принимается правило соответствия большей вероятности одному из направлений ветви (например «левому») и определенному значению бита кода (например, «1») . Цепочки битов от «корня» до конца каждой ветви соответствуют кодам исходных символов (табл.5.1 – 5.2).

Таблица 2 Объединение вероятностей символов

Zi

Pi

Шаги объединения

Ki

1

2

3

4

Z1

Z2

Z3

Z4

Z5

0,35

0,25

0,17

0,15

0,08

0,35

0,25

0,23

0,17

0,40

0,35

0,25

0,60

0,40

1,00

11

10

00

011

010

Процедура кодирования сводится к выбору из кодовой таблицы цепочек, соответствующих каждому символу источника. Декодирование предусматривает выделение в битовом потоке кодов символов и их расшифровку в соответствии с таблицей.

Код  Хаффмена может быть двухпроходным и однопроходным. Первый строится по результатам подсчета частот (вероятностей) появления различных символов в данном сообщении. Второй использует готовую таблицу кодирования, построенную на основе вероятностей символов в сообщениях похожего типа. Например, кодирование текста на русском языке в первом случае включает его предварительный анализ, подсчет вероятностей символов, построение дерева кода и таблицы кодирования индивидуально для данного сообщения. Во втором случае будет работать готовая таблица, построенная по результатам анализа множества русскоязычных текстов. Двухпроходный код более полно использует возможности сжатия. Однако, при этом вместе с сообщением нужно передавать и кодовую таблицу. Однопроходный код не оптимален, однако прост в использовании, поэтому на практике обычно применяют именно его.

В целом код Хаффмена проигрывает по сравнению с «цепочечными» кодами и его редко используют самостоятельно, однако он часто фигурирует как элемент более сложных алгоритмов сжатия.

3 Сжатие информации с учетом цепочек символов по Лемпелю-Зиву.

Очевидно, что посимвольное кодирование не использует резервы сжатия информации, связанные с повторяемостью цепочек символов. Так например, в исходном тексте программы на  алгоритмическом языке  часто встречаются повторяющиеся наименования операторов или идентификаторы, которые в принципе можно закодировать короткими битовыми последовательностями.

Наиболее удачным алгоритмом сжатия, основанным на таком подходе является алгоритм Лемпеля-Зива, который в разных модификациях используется, в частности, в большинстве программ-архиваторов. Основная идея алгоритма состоит в том, что цепочки символов, уже встреченные ранее кодируются ссылкой на их «координаты» (номер первого символа и длину) в «словаре», где находится уже обработанная часть сообщения.

Сжимаемое сообщение постепенно «вдвигается» в буфер источника. Программа- кодер выделяет в буфере блок (цепочку) символов первоначально максимальной длины (обычно порядка 16 символов) и пытается найти совпадающую цепочку в словаре источника. Если это не удается, кодер повторяет поиск для более короткого «урезанного» варианта цепочки. Когда эта цепочка обнаруживается в словаре, в канал передаются ее координаты. Если же поиск не дал результата даже для самого короткого варианта цепочки из двух символов, каждый из них передается по каналу самостоятельно.

На стороне приемника программа декодер принимает коды и восстанавливает исходное сообщение по собственному словарю. При этом восстановленные цепочки тут же попадают в словарь приемника так, что его содержимое синхронизируется с содержимым словаря источника.

Уточним дополнительно некоторые моменты:

коды координат цепочки  и коды отдельных символов различаются битовыми признаками (например, в первом случае – 1, во втором –0) ;

поскольку цепочки находятся чаще в начале словаря, и чаще бывают короткими, дополнительный выигрыш получают за счет статистического кодирования (по Хаффмену) их «адресов» и «длин»;

«канал» — понятие применимое и к реальному каналу передачи данных,  и к файлу, куда данные записываются для хранения. В последнем случае декодер «отрабатывает» при разворачивании сжатого файла;

при ограниченной длине словаря (обычно от 4 до 16 кбайт) новые поступающие символы и цепочки «вытесняют» прежние (текст как бы «вдвигается» в словарь). Разумеется, вначале, когда словарь не заполнен, эффективность сжатия невысока. Рост объема словаря позволяет повысить степень сжатия, но значительно увеличивается трудоемкость поиска цепочек.

Добавим, что алгоритм Лемпеля-Зива используется в большинстве популярных программ-архиваторов (в том числе, например, в zip, rar, arj и их windows – версиях).

Различие скорости и эффективности кодирование-декодирование определяются в основном особенностями программной реализации.

Алгоритм Лемпеля-Зива требует большого количества вычислительной работы. Его модификация — алгоритм Лемпеля-Зива-Велча является менее трудоемким, хотя и дает несколько худшие результаты по сжатию.

4 Сжатие изображений по блочному алгоритму JPEG.

Как известно, все множество цветовых оттенков может быть задано различными пропорциями яркости трех цветовых составляющих, — в частности, красного (Red – R),  зеленого (Green – G) и голубого (Blue – B). В памяти компьютера изображение чаще всего представляется как матрица (растр) точек —  пикселей.

(Наряду с таким «растровым»  представлением существует и так называемое «векторное», когда элементы изображения — кривые – описываются математическими уравнениями. К «векторному» описанию изображения применимы способы сжатия данных без потерь. Здесь мы будем говорить о методах, применяемых по отношению к растровым изображениям).

 Каждому пикселю отвечает три кодовых слова, характеризующих яркость составляющих RGB. Чаще всего для каждого из них отводится один байт (именно так кодируются цвета пикселей например в популярных графических форматах tif и bmp).

Особенности человеческого зрения заключаются, в частности, в том, что глаз слабо различает мелкие детали изображения и более чувствителен к изменениям яркости, чем к цветовым переходам. Эти особенности использует популярный алгоритм сжатия с потерями информации JPEG. В настоящее время широко используется «блочная»  версия алгоритма, в которой все изображение разбивается на блоки 8х8 и в дальнейшем эти блоки «огрубляются» таким образом, чтобы код, который их описывает, стал как можно короче (исходное описание каждого такого блока требует 8х8х3=192 байта).

Контрольные вопросы:

  1. Почему сжатие с потерями используется в основном как кодирование изображений и звука?
  2. Поясните суть методов «кодирования повторов» и кодирование по Лемпелю-Зиву.
  3. В чем отличия «блочного» и «волнового» кодирования изображений в стандарте JPEG?
  4. Какие преимущества при сжатии звуковой информации дает детальное знание особенностей источников звука.
  5. Неравномерное кодирование особенно эффективно, когда когда объем алфавита n не равен степени двойки. Объясните это.
  6. Что такое «префиксность» применительно к кодированию?
  7. Поясните процедуру построения кода Хаффмена ?
  8. В чем особенности однопроходного и двухпроходного кода Хаффмена?

Основы теории информации

Вариант – 1.

  1. В технике под информацией понимают:

а) воспринимаемые человеком или специальными устройствами сведения об окружающем мире и протекающих в нем процессах;

б) часть знаний, использующихся для ориентиро­вания, активного действия, управления;

в) сообщения, передающиеся в форме знаков или сигналов;

г) сведения, обладающие новизной.

  1. Информацию, не зависящую от личного мнения или суждения, можно назвать:

а) достоверной;

б) актуальной;

в) объективной;

г) полезной.

3. Примером текстовой информации может служить:

а) музыкальная заставка;

б) таблица умножения;

в) иллюстрация в книге;

г) реплика актера в спектакле.

4. Информация по способу ее восприятия человеком подразделяется на:

а) текстовую, числовую, графическую, музыкаль­ную, комбинированную;

б) обыденную, общественно-политическую, эстети­ческую;

в) визуальную, звуковую, тактильную, обонятель­ную, вкусовую;

г) научную, производственную, техническую, управ­ленческую.

5. Примером числовой информации может служить:

а) разговор по телефону;

б) иллюстрация в книге;

в) таблица значений тригонометрических функ­ций;

г) симфония.

6. За единицу измерения количества информации принят…

а) 1 бод    

б) 1 бит    

в) 1 байт    

г) 1 Кбайт

7. Как записывается в двоичной системе счисления число 13?

а) 1111

б) 1010

в) 1101

г) 1000

8. Как представлено число 4210 в восьмеричной системе счисления?

  1. 278

б) 528

в) 478

г) 368

9. Один школьный учитель заявил, что у него в классе 100 детей, из них 24 мальчика и 32 девочки. Какой системой счисления он пользовался?

а)2

б)3

в) 6

г)8

10. В зависимости от способа изображения чисел системы счисления делятся на:

а) арабские и римские;

б) позиционные и непозиционные;

в) представление в виде ряда и в виде разрядной сетки.

г) нумерованные и ненумерованные.

11. Чему равна сумма чисел X и Y при x=110112, y=10102?

  1. 1110012;

б) 1001012 ;

в) 100012 ;

г) 1110112.

12. Какое из чисел следует за числом 1278 в восьмеричной системе счисления?

  1. 1318 ;

б) 1378;

в) 1308;

г) 1288.

13. Даны системы счисления: 2-ая, 8-ая, 10-ая, 16-ая. Запись вида 692:

а) отсутствует в десятичной системе счисления;

б) отсутствует в восьмеричной;

в) существует во всех названных системах счисления;

г) существует в восьмеричной системе счисления.

14. Основной принцип кодирования изображений состоит в том, что:

а) изображение представляется в виде мозаики квадратных элементов, каждый из которых имеет определенный цвет;

б) изображение разбивается на ряд областей с одинаковой яркостью;

в) изображение преобразуется во множество координат отрезков, разбивающих изображение на области одинакового цвета;

г) изображение разбивается на ряд областей с разной яркостью.

15. Для кодирования русских букв в настоящее время применяют

      а) одну;
      б) две;
      в) восемь;
      г) пять

16. Пространственная дискретизация – это:

а) преобразование графической информации из аналоговой формы в дискретную

б) преобразование графической информации из дискретной формы в аналоговую

в) преобразование текстовой информации из аналоговой формы в дискретную

г) преобразование текстовой информации из дискретной формы в аналоговую

16. Сколько в палитре цветов, если глубина цвета равна 1 бит?

а) 2 цвета

б) 4 цвета

в) 8 цветов

г) 16 цветов

17. Единица измерения частоты дискретизации — 

а) Мб;

б) Кб;

в) Гц;

г)  Кц.

18. Цветное (с палитрой 256 цветов) растровое графическое изображение имеет размер 10х10 точек. Какой информационный объем несет изображение?

а) 100 бит;

б) 400 бит;

в) 800 бит;

г) 10 байт.

19. Расчет видеопамяти осуществляется по формуле, где количество цветов в палитре (N), глубина каждой точки (I), количество точек по горизонтали и вертикали (X, Y):

а) Объем памяти = 2N;

б) Объем памяти = I∙ X∙ Y;

в) Объем памяти = IX∙ Y;

г) Объем памяти = N2∙ X∙ Y.

20. В процессе преобразования растрового графического изображения количество цветов уменьшилось с 65536 до16. Во сколько раз уменьшится объём, занимаемый им памяти?

а) в 2 раза;

б) в 4 раза;

в) в 8 раз; 

г) в 16 раз.

Основы теории информации

Вариант – 2.

1. Информация в теории информации — это:

а) то, что поступает в наш мозг из многих источни­ков и во многих формах и, взаимодействуя там, образует нашу структуру знания;

б) сведения, полностью снимающие или уменьша­ющие существующую до их получения неопре­деленность;

в) неотъемлемый атрибут материи;

г) отраженное разнообразие.

2. Укажите «лишний» объект:

а) фотография;

б) телеграмма;

в) картина;

г) чертеж.

3. Учебник по математике содержит информацию следующих видов:

а) графическую, текстовую и числовую;

б) графическую, звуковую и числовую;

в) графическую, текстовую и звуковую;

г) только текстовую информацию.

4. Информацию, отражающую истинное положение дел, называют:

а) понятной;

б) достоверной;

в) объективной;

г) полной.

  1. Визуальную информацию несёт:

а) картина

б) звук грома

в) вкус яблока

г) комариный укус

6. Наименьшая единица измерения количества информации называется:

а) байт   

б) Кбайт  

в) бит   

г) бод

7. Знаменитый путеводитель «Автостопом по галактике» утверждает, что 6×9=42. Какая система счисления использовалась в Путеводителе?

а) 2

б) 8

в) 10

г) 13

8. Двоичная система счисления имеет основание:

а) 10;

б) 8;

в) 2

г) 4

9. Как записывается в двоичной системе счисления число 10?

а) 1111

б) 1010

в) 1110

г) 1000

10. Как представлено число 4510 в восьмеричной системе счисления?

  1. 278

б) 558

в) 478

г) 528

11. Чему равна сумма чисел X и Y при x=10112, y=1002?

  1. 10112;

б) 11112 ;

в) 100112 ;

г) 110112.

12. Какое из чисел следует за числом 1267 в семеричной системе счисления?

  1. 1317 ;

б) 1277;

в) 1307;

г) 1257.

13. . Какое минимальное основание должна иметь система счисления, если в ней можно записать числа: 341, 123, 222, 111.

а) 3;

б) 4;

в) 5;

г) 7.

14. . Разрешающая способность изображения – это:

а) количество точек по горизонтали;

б) количество точек по вертикали;

в) количество точек на единицу длины;

г) количество точек по диагонали.

15. В таблице кодов ASCII имеют международный стандарт


 а) первые 16 кодов;
 б) первые 128 кодов;
 в) последние 128 кодов;
 г) таких нет.
.

16. . При работе дисплея в текстовом режиме одну позицию экрана занимает

а) один пиксель;
б) один символ;
в) одно слово;
г) часть символа.

17. Из каких цветов состоит палитра системы цветопередачи RGB?

  1. Голубой, пурпурный, желтый, черный

  2. Фиолетовый, белый, черный, желтый

  3. Красный, зеленый, синий

  4. Белый, синий, черный, зеленый

18. Во сколько раз увеличится информационный объем страницы текста (текст не содержит управляющих символов форматирования) при его преобразования из кодировки MS-DOS (таблица кодировки содержит 256 символов) в кодировку Unicode (таблица кодировки содержит 65536 символов)?

а) в 2 раза;

б) в 8 раз;

в) в 16 раз;

г) в 256 раз.

19. Черно-белое (без градаций серого) растровое графическое изображение имеет размер 10×10 точек. Какой объем памяти займет это изображение?

а) 100 бит;

б) 100 байт;

в)10 Кбайт;

г) 1000 бит.

20. Для хранения графической информации, как пра­вило, не используют:

а) дискету;

б) бумагу;

в) грампластинку;

г) холст;

д) видеопленку

Основы теории информации

Вариант – 3.

1. Информация в теории управления — это:

а) сообщения в форме знаков или сигналов;

б) сведения об окружающем мире и протекающих в нем процессах;

в) та часть знаний, которая используется для ори­ентирования, активного действия, управления, то есть в целях сохранения, совершенствования, развития системы;

г) все, фиксируемое в виде документов.

2. Какое из высказываний ложно:

а) получение и обработка информации является необходимым условием жизнедеятельности любого организма;

б) для обмена информацией между людьми служат языки;

в) всякое представление информации о внешнем мире связано с построением некоторой модели;

г) с точки зрения технического подхода обрабаты­ваемая компьютерами информация должна но­сить осмысленный характер.

3. Информацию, существенную и важную в настоящий момент, называют:

а) полезной;

б) актуальной;

в) достоверной;

г) объективной.

  1. Тактильную информацию человек получает посредством:

а) специальных приборов

б) термометров

в) барометров

г) органов осязания

5. Информация по форме представления подразделяется на:

а) обыденную, эстетическую, общественно-полити­ческую;

б) социальную, техническую, биологическую, ге­нетическую;

в) визуальную, аудиальную, тактильную, обоняте­льную, вкусовую;

г) текстовую, числовую, графическую, музыкаль­ную, комбинированную.

6. Каждая цифра машинного двоичного кода несет количество информации, равное:

а) 1 байт   

б) 1 Кбайт  

в) 1 бит   

в) 8 бит

  1. В классе 36q учеников, из них 21q девочка и 15q мальчиков. В какой системе счисления велся отсчет?

а) 6

б) 10

в) 6

г) 7

  1. Для представления чисел в шестнадцатеричной системе счисления используются:

а) цифры 0-9 и буквы AF;

б) буквы A-Q;

в) числа 0-15;

г) цифры 0 -9 и буквы А — Q

9. Как записывается в двоичной системе счисления число 15?

а) 1111

б) 1010

в) 1110

г) 1000

  1. Как представлено число 5510 в восьмеричной системе счисления?

  1. 768

б) 678

в) 478

г) 528

  1. Чему равна сумма чисел X и Y при x=1012, y=10012?

  1. 20112;

б) 11102 ;

в) 100112 ;

г) 110122.

12. Какое из чисел следует за числом 156 в шестеричной системе счисления?

  1. 166 ;

б) 116;

в) 206;

г) 126.

13. .  ЭВМ базируется на системе счисления …

а) Двоичной

б) Десятичной

в) Шестнадцатеричной

г) Восьмеричной.

14. Даны системы счисления: 2-ая, 8-ая, 10-ая, 16-ая. Запись вида 352:

а) отсутствует в двоичной системе счисления;

б) отсутствует в восьмеричной;

в) существует во всех названных системах счисления;

г) существует в двоичной системе счисления

15. В палитре 32 цвета. Чему равна глубина цвета?

а) 2 бит

б) 5 бита

в) 3 бита

г) 4 бита

16. Цветное изображение с палитрой из 8 цветов имеет размер 100х200 точек. Какой информационный объем имеет изображение?

а) 7500 байт

б) 160000 бит

в) 160000 байт

г) 60000 байт

17. Сколькими способами можно расставить 4 различные книги на книжной полке?

  1. 24

б)4

в)16

г) 20

18. Информационный объем сообщения: «Очень хочу учиться» — равен:

а) 201 бит 

б)18 байт  

в) 16 байт  

г) 110 бит

19. При работе дисплея в текстовом режиме одну позицию экрана занимает

а) один пиксель;
б) один символ;
в) одно слово;
г) часть символа.

20. Звуковая плата реализует 16-ти битное двоичное кодирование аналогового звукового сигнала. Это позволяет воспроизводить звук с

а) 8 уровнями интенсивности;

б) 256 уровнями интенсивности;

в) 16 уровнями интенсивности;

г) 65536 уровнями интенсивности.

Основы теории информации

Вариант – 4.

  1. Информацию, с помощью которой можно решить поставленную задачу, называют:

а) понятной;

б) актуальной;

в) достоверной;

г) полезной

2. Аудиоинформацию человек воспринимает с помощью органов:

а) зрения

б) носа

в) слуха

г) органов осязания

3. 1 Кбит – это:

а) 1000 бит  

б) 10 байт  

в) 112 байт 

г) 1024 бит

  1. Записать в системе счисления с основанием 234 число 235.

а) 11

б) 12

в) 13

г) 14

  1. Для представления чисел в троичной системе счисления используются:

а) цифры 0-9 и буквы A-F;

б) буквы A-С;

в) числа 0-2;

г) цифры 0 -2 и буквы А – Q

  1. Какое десятичное число в двоичной системе счисления записывается как 1101?

а) 17

б) 13

в) 26

г) 8

7. Как представлено число 3510 в восьмеричной системе счисления?

  1. 438

б) 678

в) 348

г) 528

8. Сколькими способами могут встать в очередь в билетную кассу 5 человек?

а) 5

б) 120

в) 25

г) 100

9. Чему равна сумма чисел X и Y при x=110012, y=10102?

  1. 1110012 ;

б) 1001012;

в)1000112 ;

г) 1110112

10. Основной принцип кодирования изображений состоит в том, что:

а) изображение разбивается на ряд областей с одинаковой яркостью;

б) изображение представляется в виде мозаики квадратных элементов, каждый из которых имеет определенный цвет;

в) изображение преобразуется во множество координат отрезков, разбивающих изображение на области одинакового цвета.

г) изображение разбивается на ряд областей с разной яркостью

11. Разрешающая способность экрана в текстовом режиме определяется количеством…
    

а) байтов на символ;
     б) символов в строке экрана;
     в) пикселей по горизонтали и вертикали;
     г) строк и столбцов на экране;

12. В палитре 16 цветов. Чему равна глубина цвета?

а) 1 бит

б) 2 бита

в) 3 бита

г) 4 бита

13. Сколько цветов в палитре, если цветное изображение имеет размер 20х30 точек, а информационный объем равен 150 байт?

а) 2 цвета

б) 3 цвета

в) 4 цвета

г) 5 цветов

14. В какой системе счисления может быть записано число 402?

а) в двоичной;

б) в троичной;

в) в пятеричной;

г) в римской.

15. Информация по общественному значению подраз­деляется на:

а) текстовую, числовую, графическую, музыкаль­ную, комбинированную;

б) визуальную, звуковую, тактильную, обонятель­ную, вкусовую;

в) социальную, техническую, биологическую, ге­нетическую;

г) обыденную, общественно-политическую, эстети­ческую, научную, техническую, производствен­ную, управленческую.

16. В соответствии с федеральным законом РФ «Об информации, информатизации и защите информа­ции» (1995) информация — это:

а) сведения о лицах, предметах, фактах, событи­ях, явлениях и процессах независимо от формы их представления;

б) та часть знаний, которая используется для ори­ентирования, активного действия, управления, то есть в целях сохранения, совершенствования, развития системы;

в) сведения, обладающие новизной для их получа­теля;

г) сведения, фиксируемые в виде документов.

17. Система CMYK служит для кодирования

  1. Звуковой информации;

  2. Текстовой информации;

  3. Графической информации;

  4. Числовой информации;

18. Формула для расчета размера (в байтах) цифрового аудиофайла: 

а) (частота дискретизации в Мб) * ( время записи в сек) * (разрешение в битах);

б) (частота дискретизации в Гц) * (разрешение в битах)/16;

в) (частота дискретизации в Гц) * ( время записи в мин) * (разрешение в байтах)/8;

г) (частота дискретизации в Гц) * ( время записи в сек) * (разрешение в битах)/8.

19. Два звуковых файла записаны с одинаковой частотой дискретизации и глубиной кодирования. Информационный объем файла, записанного в стереорежиме, больше информационного объема файла, записанного в монорежиме:

а) в 4 раза;

б) объемы одинаковые;

в) в 2 раза;

г) в 16 раз.

20. Количество цветов в палитре (N) и количество информации, необходимое для кодирования каждой точки (i), связаны между собой и могут быть вычислены по формуле:

а) I=N ∙ 2

б) N=2 ∙ i

в) N=2i

г) 2=Ni

Ключ

Основы теории информации

Вариант 1

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

в

в

г

в

в

в

в

б

в

б

б

в

б

а

г

а

в

в

б

б

Вариант – 2

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

б

б

а

б

а

в

г

в

б

б

б

в

в

в

б

а

в

а

а

в

Вариант – 3

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

в

г

б

г

г

в

г

а

а

б

б

в

а

а

б

а

а

б

а

г

Вариант – 4

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

г

в

г

а

в

б

а

б

в

б

в

г

а

в

г

а

в

г

в

в

Понравилась статья? Поделить с друзьями:

Новое и интересное на сайте:

  • Экзамен по охране труда мингорисполком сколько вопросов
  • Экзамен по основам теории журналистики
  • Экзамен по охране труда компьютерная программа
  • Экзамен по основам сестринского дела
  • Экзамен по охране труда картинки

  • 0 0 голоса
    Рейтинг статьи
    Подписаться
    Уведомить о
    guest

    0 комментариев
    Старые
    Новые Популярные
    Межтекстовые Отзывы
    Посмотреть все комментарии