И Н Ф О Р М А Т И К А
1. Понятие информатики
2. Понятия информации и сообщения.
Пример
3. Понятие кодирования информации.
Основным носителем информации в средствах вычислительной техники (ВТ) являются элементы, которые могут находиться в одном из
С помощью одного байта можно получить 2^8 = 255 различных двоичных кодов (от 00000000 до 11111111).
Пример кодовой таблицы Windows
4. Задача, алгоритм и программа.
Понятие алгоритма и его свойств
5.Классификация средств ВТ и ЭВМ.
Классификация ЭВМ
6. Оценка количества информации.
419.00K
Category: informaticsinformatics

Информатика. Основные понятия и определения

1. И Н Ф О Р М А Т И К А

ИНФОРМАТИКА
Лекция № 1. “Основные понятия и
определения.”
1. Понятие
информатики
2. Понятия
информации и
сообщения.
3. Понятие
Авторкодирования
к.т.н., доцент Хабаров С.П.
www.habarov.spb.ru

2. 1. Понятие информатики

Информатика – молодая наука, возникшая при
первых попытках автоматизации умственной
деятельности человека и получившая бурное
развитие за последние 30 лет.
Предмет информатики
состоит в изучении:
Свойств информации,
Закономерности ее
переработки,
Процессов управления
переработкой.

3.

ИНФОРМАТИКА
Как отрасль науки
Исследует свойства и
процессы передачи
информации,
используя методы
таких наук, как
• психология,
• логика,
• лингвистика и
• математика.
Как отрасль техники
Имеет дело со
средствами
обработки
информации и
применяет методы
• вычислительной
техники,
• системотехники,
• наук об управлении

4.

Информатика – это совокупность
научных направлений, изучающих :
свойства информации,
способы ее представления,
передачи и автоматической
обработки.
Основная цель информатики –
системное изучение всех процессов и
средств, которые имеют отношения к
обработке информации с
использованием ЭВМ.

5. 2. Понятия информации и сообщения.

В технической
интерпретации
ИНФОРМАЦИЯ
Это любые сведения о
событиях или явлениях,
воспринимаемые человеком
или техническими средствами
и снимающие
неопределенность,
существующую до их
появления.
В философском
смысле
Это отражения
реального мира
Свойства информации:
• объективность и
субъективность;
• полнота;
• достоверность;
• адекватность;
• доступность;
• актуальность.

6.

Информация существует в виде:
документов, чертежей,
рисунков, текстов,
звуковых и световых сигналов,
электрических и нервных импульсов и т.п.
Информация, зафиксированная в некоторой
материальной форме, называется
сообщением.
Сообщения могут быть либо непрерывными,
либо дискретными, определяя
соответственно непрерывный и дискретный
способы представления информации.

7.

Непрерывные сообщения представляются
физической величиной, характеризующей
процесс, не имеющий перерывов и
промежутков.
80
60
40
20
0
1 3 5 7 9 11 13 15 17 19
Пример:
температура
человека в
течение дня,
диаметр
дерева от
возраста
и т.д.

8.

Дискретные сообщения - это последовательность
символов, характеризующая прерывистую,
изменяющуюся величину.
Пример:
выпуск мебели
за смену,
речь человека
(набор звуков и
пауз)
С понятием дискретных сообщений тесно
связаны понятия:
квантования по уровню
и дискретизации по времени.

9.

Для дискретных сообщений характерно
наличие определенного набора
элементов из которых в определенные
моменты формируются различные
последовательности.
Элементы из которых строятся
дискретные сообщения называются
символами и образуют алфавит.
Важным является не физическая
природа элементов, а то что их набор
конечен.

10. Пример

Для записи какого-либо сообщения на бумаге
используется алфавит, содержащий конечный
набор символов букв, цифр знаков препинания,
математических и иных знаков.
Это же сообщение на расстояние может быть
передано с помощью коротких и длинных
электрических символов (точек и тире в
соответствие с кодом Морзе), т.е. с помощью
алфавита состоящего всего из двух символов.
Совершенно иной алфавит будет использован
для представления этого же сообщения на
магнитном или оптическом диске

11. 3. Понятие кодирования информации.

Для передачи информационных сообщений
используются различные носители
информации – бумага, электрические или
оптические сигналы, магнитные пленки и т.д.
При этом на каждом из них информация
представляется с помощью символов
различного алфавита.
Процесс преобразования информации из
одного алфавита в эквивалентный другой
алфавит называется кодированием.
А под носителем информации понимается
физическая среда, предназначенная для
приема, хранения и передачи информации.

12. Основным носителем информации в средствах вычислительной техники (ВТ) являются элементы, которые могут находиться в одном из

двух состояний
( включено/выключено, высокий/низкий уровень
напряжения, есть/нет намагниченность
ферромагнитного материала и т.д. )
Условно одно состояние
обозначают через “0”,
другое через “1”.
Каждый такой элемент может
хранить один двоичный разряд
или бит информации
( bit - binary digit )
“1”
U
“0”
“0”
t

13.

Таким образом для представления
дискретной информации в средствах ВТ
используется алфавит, состоящий всего
лишь из двух символов (цифра 0 и
цифра 1) и любое информационное
сообщение представляется в виде
последовательности нулей и единиц,
т.е. в виде цифрового кода.
Бит – это минимальная единица
машинной информации.
Совокупность восьми двоичных
разрядов образуют байт.

14.

7
6
5
4
3
2
1
0
Биты с 0-го
по 7-й
Байт – основная единица машинной
информации, производными от которой
являются:
1Кбайт = 2^10 байт =1024 байт
1Мбайт = 2^10 Кбайт = 1024 Кбайт =
2^20 байт = 1024*1024 байт
1Гбайт = 2^10 Мбайт = 1024 Мбайт =
2^30 байт = 1024*1024*1024 байт

15. С помощью одного байта можно получить 2^8 = 255 различных двоичных кодов (от 00000000 до 11111111).

7
6
5
4
3
2
1
0
С помощью одного байта можно получить
2^8 = 255
различных двоичных кодов
(от 00000000 до 11111111).
В любой ЭВМ реализуется кодовая таблица, в
которой:
- устанавливается соответствие этих
кодов символам, отображаемым на
дисплее или принтере.
- каждому допустимому коду
соответствует ровно один символ

16. Пример кодовой таблицы Windows

17.

Кодовые таблицы в большинстве ЭВМ основаны
на американской стандартной системе кодировки
для обмена информацией ASCII (American
System Code for International Interchange),
которая изначально не содержала символов
русского алфавита.
Отсутствие стандартов привело к появлению
разных таблиц для кодирования русских текстов,
среди которых :
альтернативная кодовая таблица CP-866
международный стандарт ISO 8859
кодовая таблица фирмы Microsoft CP-1251
(кодировка Windows)
кодовая таблица ОС Unix KOI8-R

18. 4. Задача, алгоритм и программа.

ЭВМ предназначены для решения задач. Если
определены исходные данные и задана
конкретная цель, то говорят, что поставлена
некоторая задача. Различают задачи :
Вычислительные - в этих задачах исходные
данные и результат имеют количественные
значения
Логические - в них исходные данные и
результат принимают значение истина или
ложь (True или False)
Информационные - в которых исходные
данные и результат представлены набором
символьных данных и текстов

19. Понятие алгоритма и его свойств

Для решения любой задачи необходимо
составить алгоритм.
Под алгоритмом будем понимать однозначное
пошаговое описание действий, выполняемых по
строго определенным правилам и приводящее к
решению поставленной задачи
Свойства алгоритма
Массовость
Дискретность
Понятность
Результативность
Однозначность

20.

Способы реализации
алгоритма
Структурный
Алгоритм реализуется
посредством
соединения между
собой отдельных
вычислительных
блоков, выполняющих
элементарные
операции
Программный
При неизменной
структуре ЭВМ
алгоритм
представляется в виде
программы, задающей
правило вычисления,
как совокупность
операций над
информацией.

21.

Пример:
Исходные данные: a, b, c, d.
Вычислить: Y=a*b + c* d
Использовать разные способы реализации алгоритма
Структурный
a
b
c
d
x
x
Программный
+
Y
X = a*b
Z = c* d
Y=X+Z
Print “Результат Y=”; Y
Программа – это последовательность
машинных команд или операторов языка
программирования, определяющая порядок
действий для решения некоторой задачи.

22. 5.Классификация средств ВТ и ЭВМ.

Среди множества средств ВТ выделяют:
Вычислительные приборы – предназначенные для
реализации только отдельных предписаний алгоритма.
Вычислительные машины (ВМ) – технические средства
для автоматического преобразования информации в
соответствии с заданным алгоритмом, основным
признаком которых является хранение алгоритма в ее
памяти.
Вычислительная система (ВС)– комплекс средств ВТ,
содержащий не менее двух основных процессоров или
ЭВМ с единой системой управления, имеющих общую
память и общие внешние устройства.
Интеллектуальные машины – технические средства,
способные воспринимать только формулировку задачи и
без участия человека автоматически разрабатывать и
реализовывать алгоритм.

23.

Вычислительные машины могут строиться на
различной физической основе.
Различают электромеханические,
пневматические, электронные, оптические и
другие виды ВМ.
Наиболее распространены сейчас
электронные ВМ, основу которых составляют
электронные элементы и микропроцессоры.

24. Классификация ЭВМ

Способ реализации
алгоритма
Способ представления информации
Структурный
Аналоговые ВМ (АВМ) Адаптивные ЭЦВМ
Программный
Непрерывный
Гибридные ЭВМ
Дискретный
ЭВМ (компьютеры)
Аналоговые ВМ характеризуются тем, что в них
исследуемые физические величины заменяются
другими физическими величинами (обычно
напряжением электрического тока), над которыми и
производятся все действия. Поэтому говорят, что в АВМ
строится модель исследуемого процесса.
Гибридные ЭВМ - используются в качестве
встраиваемых в системах управления.
Адаптивные ЭЦВМ – автоматически подстраивают
свою структуру под решаемую задачу и обладают
повышенными характеристиками производительности и
надежности.

25. 6. Оценка количества информации.

Количество информации находится в прямой
зависимости от степени ее неожиданности.
Журналист охотится за сенсацией, т.е. за
сведениями о которых мало что известно.
Следовательно, чем менее вероятно событие, тем
оно более информативно.
Некоторые исследователи склонялись к тому, чтобы
количество информации (Qi) оценивать в виде
Qi
1 / pi ,
где Qi – количество информации в i – м сообщении,
a pi – вероятность возникновения этого сообщения.
Но в этой формуле есть недостаток. Так, если в i – м
сообщении нет никакой неожиданности, т.е.
сообщение достоверно и количество информации
нулевое, то должно бы быть
pi = 1 и Qi =0 .
Однако, согласно приведенной формуле получим
Qi
(1 / 1) = 1 , что противоречит здравому смыслу.

26.

Основатель теории информации К.Шеннон ввел для
определения количества информации следующую
формулу
Qi = log 1 / pi = - log pi .
Действительно в этом случае если pi = 1 , то и
- log 1 = 0 .
Если о каком-либо объекте можно получить не одно,
а N сведений, каждое из которых поступает с
вероятностью p1, p2, … , pN , то оценивают
среднее количество информации об объекте
N
H pi * log ( pi )
i 1
N
Величина H называется энтропией объекта. Эта
мера неопределенности, содержащаяся во всех
сведениях об объекте.

27.

Предположим, что об объекте можно получить
сведения только двух типов, причем оба эти
сведения равновероятны, т.е.
p1 = p2 = 1 / 2
p1 + p2 = 1
тогда
2
H (1 / 2) * log (1 / 2) log 2 1
i 1
2
2
Величина H = 1 называется битом информации. Бит
– это единица двоичной информации, которая
определяет максимальное количество информации,
содержащееся в одном двоичном разряде памяти
ЭВМ, при условии, что запись 0 или 1
равновероятны.
English     Русский Rules