Понятие информатики, информации, кодирования информации  

Понятие информатики, информации, кодирования информации

Информатика-это наука о сборе, накоплении, хранении, обработки, использовании информации. Она занимается формализованным представлением информации и ее обработкой, включает в себя вопросы анализа и моделирования взаимосвязей и структур в самых различных областях науки, техники и производства.

Формирование моделей определенных структур объектов, взаимодействий и процессов в какой-либо предметной области осуществляется с помощью таких формальных средств, как структуры данных, языки программирования, логические формулы.

Понятие информации является основополагающим,

фундаментальным, но следует различать:

1) Формальное представление, изображение информации – ее внешнюю форму

2) Абстрактное значение, содержание, семантику изображения

3) Связь абстрактной информации с реальным миром

Информация-это фундаментальное понятие, как вещество или энергия, строгого определения дать невозможно, но существует несколько подходов к определению информации и определению количества информации:

-Содержательный - субъективный, у разных людей степень неопределенности об одном и том же предмете различная.

-Вероятностный определяется формулой Шеннона p=m/N

-Алфавитный определяется формулой Хартли N=2^i

Информацией обычно называют содержательное значение, семантику некоторого высказывания, описания, сообщения.

Для ее машинного представления существуют различные формы:

• условные знаки, сигналы;

• акустическое, речевое представление;

• графическое представление – рисунки, пиктограммы;

• текстовое представление с помощью последовательности символов.

Интерпретируя представление информации, получаем ее абстрактное значение, семантику.

Для обмена информацией должны существовать согласованные, единые системы ее представления и интерпретации. …..

В информатике интерпретацию представления информации отождествляют с подходящими математическими структурами и для ее обработки используют математические методы

В приложениях информатики может быть рассмотрено точно описанное множество представлений информации R

с интерпретацией I в множестве элементов информации – А.

Интерпретация I данному представлению сообщения r ставит в соответствие некоторое абстрактное информационное содержание I(r). Таким образом, интерпретации соответствует отображение I : R A

Информационную систему можно обозначить тройкой

(A, R, I)

Система представлений R должна быть конечной. Пример.



Пусть N – система натуральных чисел, включая число ноль –это есть последовательность штрихов:

ε, /, //, ///, ////, ///// и т.д

Здесь ε - пустая последовательность.

Общепринятым представлением целых чисел есть последовательность из символов множества {0,1,2,3,4,5,6,7,8,9}

Интерпретацией I будет отображение десятичного представления чисел в последовательности штрихов.

I : {0,1,2,3,4,5,6,7,8,9}+ à N, где

{0,1,2,3,4,5,6,7,8,9}+ - множество непустых конечных последовательностей десятичных цифр. Например,

I{0} = ε, I{1} = /, I{2} = //, I{3} = ///, и т.д.

Информация в ее абстрактном смысле может быть только представлена. Понятие числа в математике никак не зависит от способа его представления. Но способы представления существенно различны с точки зрения удобства реализации процессов обработки.

В одной системе представления возможны различные изображения одной и той же информации.

В информационной системе (A,R,I) два изображения r1 и r2 называются семантически эквивалентными, если они несут одинаковую абстрактную информацию I(r1) = I(r2)

Простейший пример информационной системы , которая является фундаментальной как в математике, так и в информатике, является логика высказываний.

Высказывание, по определению Аристотеля, это языковое образование, в отношении которого имеет смысл говорить о его истинности или ложности.

Не всякое языковое образование можно назвать высказыванием. Например, «Высказывание этого предложения является ложным» - парадокс, так как высказывание ссылается само на себя.

Логика высказываний – это ограниченная система (формальный язык), в котором в качестве высказываний допускаются только определенные языковые формы – формулы.

Константные высказывания: истина – TRUE и ложь – FALSE.



Логические операции “не”, “и”, “или” – NOT, AND, OR …

Кодирование информации - для определения количества инф. был найден способ представить ее тип в едином виде, что позволило все типы информации преобразовать к единому стандартному виду. Таким видом стала двоичная формапредставления информации. Она заключается в записи любой информации в виде последовательности только 2х символов каждая такая последовательность назыв. двоичным кодом. Недостаток- длинные коды.

Информация….может быть представлена функцией

y = f (x,t),

t – время, х – точка, в которой измеряется некоторое поле, y – значение величины этого поля.

Различают непрерывную, информацию и дискретную.

Скалярные величины x,t,y, могут принимать непрерывный ряд значений, описываемых вещественными числами. Непрерывный в том смысле, что значения можно получить в сколь угодно близких точках. Такую информацию называют непрерывной или аналоговой.

Установив какой-то шаг изменения скалярных величин x и t при определении поля y, получают так называемое дискретное представление информации.

Дискретную информацию называют универсальной, т.к. любую непрерывную можно аппроксимировать дискретной с заданной степенью точности.

Дискретную информацию отождествляют с цифровой ….

Цифровая информация – это частный случай алфавитного представления.

Алфавит, абстрактный алфавит – это конечный набор символов любой природы. Например, десятичные цифры вместе с запятой представляют собой алфавит из 11 символов для представления целых и вещественных чисел. 26 букв латинского алфавита, алфавит русского языка…

В информатике часто приходится представлять символы одного алфавита с помощью символов другого алфавита. Такое преобразование информации называют кодированием.

Проблема кодирования решается просто, если символов кодирующего алфавита больше, чем символов кодируемого, например:

1) 0 – а, 1 – б, 2 – в, 3 – г и т.д.

2) 0 – ноль, 1 – один, 2 – два, 3 – три, и т.д

Если кодируемый алфавит состоит из большего количества символов, чем кодирующий, то условием правильного, однозначного кодирования является использование последовательностей символов кодирующего для представления одного символа кодируемого алфавита, например, а – 01, б – 02, в – 03, г – 04 и т.д.

Простейший абстрактный алфавит – это алфавит из двух символов, двух букв, называемый двоичным. В качестве символов алфавита часто используются цифры 0 и 1.

Величина, способная принимать только два значения 0 и 1, является минимальной единицей информации и называется битом. Как самый простой, двоичный алфавит используется в вычислительных машинах, а для кодирования алфавитов, которыми привык пользоваться человек, используются последовательности символов двоичного алфавита.

Последовательностями из n двоичных цифр можно закодировать 2n символов. При n=3 это 23 - 8 символов,

при n = 8 это 28 – 256 символов.

Международная организация по стандартизации ISO разработала 32-разрядный код, позволяющий представлять более 17 миллионов различных символов

Для черно-белого изображения каждая точка представляется одним битом со значением 0 или 1 в зависимости от цвета черная она или белая, а все изображение , состоящее из 1280*1024 точки, представляется т. называемой битовой картой размером 1280*1024 бита.

Цветное изображение требует для представления каждой точки 3n бит, где n – количество бит, отводимых для представления интенсивности каждого из 3-х основных цветов : красного, синего и зеленого.

Факсимильные аппараты, цифровые фотоаппараты, видеокамеры, сканеры преобразуют изображения в графические файлы с растровым форматом. Недостаток растрового изображения – сложность его масштабирования. При увеличении размеров появляется зернистость, ступенчатость.

Векторный способ описывает изображение как совокупность прямых и кривых линий. Их форма и расположение в пространстве и на экране описываются соответствующими уравнениями, на основе которых и создается, генерируется изображение. Этот способ используется для описания шрифтов, поддерживаемых принтерами и мониторами.

Математик А.Н. Колмогоров предложил определять количество информации, содержащейся в последовательности символов, минимально возможным количеством двоичных знаков, необходимых для кодирования этой последовательности независимо от содержания, представленного этим сообщением.

• Это объективный алфавитный подход. Используя для кодирования 2-ый алфавит, и принимая за единицу информации 1 бит, приходим к тому, что содержательный и алфавитный подходы хорошо согласуются, дают одинаковый результат. Более крупные единицы информации: 1 байт,

• 1 Килобайт – 1024 байт (210)

• 1 Мегабайт – 1024 Килобайта

• 1 Гигабайт – 1024 Мегабайта

• 1 Терабайт – 1024 Гигабайта

• 1 Петабайт – 1024 Терабайта

• Чтобы измерить количество информации в сообщении, надо закодировать сообщение с помощью двоичных цифр 0 и 1 наиболее рациональным способом, позволяющим получить самую короткую последовательность. Длина полученной последовательности нулей и единиц является мерой количества информации в битах

Такой подход приводит к формуле Р. Хартли для измерения количества информации I = log2N
I – количество информации которое вмещает один символ
N- элементного алфавита равно log2N.

• Это утверждение можно сформулировать по другому: количество информации, при выборе одного предмета из N равнозначных предметов, равно log2N. То есть, именно такое количество информации необходимо для устранения неопределенности при выборе из N равнозначных вариантов.

• Вероятностный подход в определении количества информации выражается формулой Шеннона. Пусть некоторое множество состоит из N предметов. При этом интересующий нас предмет является одним из m


1753111930019147.html
1753222678870591.html
    PR.RU™