Понятие информации, различные его трактовки. Определения информации (по законодательству Российской Федерации, по Н

Информация (от лат. informatio, разъяснение, изложение, осведомлённость) - сведения о чём-либо, независимо от формы их представления.

В настоящее время не существует единого определения информации как научного термина. С точки зрения различных областей знания данное понятие описывается своим специфическим набором признаков. Например, понятие «информация» является базовым в курсе информатики, и невозможно дать его определение через другие, более «простые» понятия (так же, в геометрии, например, невозможно выразить содержание базовых понятий «точка», «луч», «плоскость» через более простые понятия). Содержание основных, базовых понятий в любой науке должно быть пояснено на примерах или выявлено путём их сопоставления с содержанием других понятий. В случае с понятием «информация» проблема его определения ещё более сложная, так как оно является общенаучным понятием. Данное понятие используется в различных науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой науке понятие «информация» связано с различными системами понятий.

История понятия

Слово «информация» происходит от лат. informatio, что в переводе обозначает сведение, разъяснение, ознакомление. Понятие информации рассматривалось ещё античными философами.

До начала промышленной революции, определение сути информации оставалось прерогативой преимущественно философов. В XX веке вопросами теории информации стали заниматься кибернетика и информатика.

Классификация информации

Информацию можно разделить на виды по различным критериям:

по способу восприятия :

по форме представления :

по назначению :

по значению :

  • Актуальная - информация, ценная в данный момент времени.
  • Достоверная - информация, полученная без искажений.
  • Понятная - информация, выраженная на языке, понятном тому, кому она предназначена.
  • Полная - информация, достаточная для принятия правильного решения или понимания.
  • Полезная - полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

по истинности :

Значение термина в различных областях знания

Философия

Традиционализм субъективного постоянно доминировал в ранних философских определениях информации, как категории, понятия, свойства материального мира. Информация существует независимо от нашего сознания, и может иметь отражение в нашем восприятии только как результат взаимодействия: отражения, чтения, получения в виде сигнала, стимула. Информация нематериальна, как и все свойства материи. Информация стоит в ряду: материя, пространство, время, системность, функция, и др. что есть основополагающие понятия формализованного отражения объективной реальности в её распространении и изменчивости, разнообразии и проявленности. Информация - свойство материи и отражает её свойства (состояние или способность взаимодействия) и количество (мера) путём взаимодействия.

С материальной точки зрения информация - это порядок следования объектов материального мира. Например, порядок следования букв на листе бумаги по определенным правилам является письменной информацией. Порядок следования разноцветных точек на листе бумаги по определенным правилам является графической информацией. Порядок следования музыкальных нот является музыкальной информацией. Порядок следования генов в ДНК является наследственной информацией. Порядок следования битов в ЭВМ является компьютерной информацией и т. д. и т. п. Для осуществления информационного обмена требуется наличие необходимых и достаточных условий.

Необходимые условия:

  1. Наличие не менее двух различных объектов материального или нематериального мира.
  2. Наличие у объектов общего свойства, позволяющего идентифицировать объекты в качестве носителя информации.
  3. Наличие у объектов специфического свойства, позволяющего различать объекты друг от друга.
  4. Наличие свойства пространства, позволяющее определить порядок следования объектов. Например, расположение письменной информации на бумаге - это специфическое свойство бумаги, позволяющее располагать буквы слева направо и сверху вниз.

Достаточное условие одно:

Наличие субъекта, способного распознавать информацию. Это человек и человеческое общество, общества животных, роботов и т. д.

Различные объекты (буквы, символы, картинки, звуки, слова, предложения, ноты и тп.) взятые по одному разу образуют базис информации. Информационное сообщение строится путем выбора из базиса копий объектов и расположение этих объектов в пространстве в определенном порядке. Длина информационного сообщения определяется как количество копий объектов базиса и всегда выражается целым числом. Необходимо различать длину информационного сообщения, которое всегда измеряется целым числом, и количество знаний, содержащегося в информационном сообщении, которое измеряется в неизвестной единице измерения.

С математической точки зрения информация - это последовательность целых чисел, которые записаны в вектор. Числа - это номер объекта в базисе информации. Вектор называется инвариантом информации, так как он не зависит от физической природы объектов базиса. Одно и то же информационное сообщение может быть выражено буквами, словами, предложениями, файлами, картинками, нотами, песнями, видеоклипами, любой комбинацией всех ранее названных. Чем бы мы ни выражали информацию - изменяется только базис, а не инвариант.

В информатике

Предметом изучения науки информатика являются именно данные: методы их создания, хранения, обработки и передачи. А сама информация, зафиксированная в данных, её содержательный смысл интересны пользователям информационных систем, являющимся специалистами различных наук и областей деятельности: медика интересует медицинская информация, геолога - геологическая, предпринимателя - коммерческая и т. п. (в том числе специалиста по информатике интересует информация по вопросам работы с данными).

Системология

Работа с информацией связана с преобразованиями и всегда подтверждает её материальную природу:

  • запись - формирование структуры материи и модуляции потоков путём взаимодействия инструмента с носителем;
  • хранение - стабильность структуры (квазистатика) и модуляции (квазидинамика);
  • чтение (изучение) - взаимодействие зонда (инструмента, преобразователя, детектора) с субстратом или потоком материи.

Системология рассматривает информацию через связь с другими основаниями: I=S/F, где: I - информация; S - системность мироздания; F - функциональная связь; M - материя; v - (v подчёркнутое) знак великого объединения (системности, единства оснований); R - пространство; T - Время.

В физике

Объекты материального мира находятся в состоянии непрерывного изменения, которое характеризуется обменом энергией объекта с окружающей средой. Изменение состояния одного объекта всегда приводит к изменению состояния некоторого другого объекта окружающей среды. Это явление вне зависимости от того, как, какие именно состояния и каких именно объектов изменились, может рассматриваться как передача сигнала от одного объекта другому. Изменение состояния объекта при передаче ему сигнала называется регистрацией сигнала.

Сигнал или последовательность сигналов образуют сообщение, которое может быть воспринято получателем в том или ином виде, а также в том или ином объёме. Информация в физике есть термин, качественно обобщающий понятия «сигнал» и «сообщение». Если сигналы и сообщения можно исчислять количественно, то можно сказать, что сигналы и сообщения являются единицами измерения объёма информации.

Одно и то же сообщение (сигнал) разными системами интерпретируется по-своему. Например, последовательно длинный и два коротких звуковых (а тем более в символьном кодировании -..) сигнала в терминологии азбуки Морзе - это буква Д (или D), в терминологии БИОС от фирмы AWARD - неисправность видеокарты.

В математике

В математике теория информации (математическая теория связи) - раздел прикладной математики, определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. Основные разделы теории информации - кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Математика является больше чем научной дисциплиной. Она создает единый язык всей Науки.

Предметом исследований математики являются абстрактные объекты: число, функция, вектор, множество, и другие. При этом большинство из них вводится акcиоматически (аксиома), то есть без всякой связи с другими понятиями и без какого-либо определения.

Информация не входит в число предметов исследования математики. Тем не менее, слово «информация» употребляется в математических терминах - собственная информация и взаимная информация, относящихся к абстрактной (математической) части теории информации. Однако, в математической теории понятие «информация» связано с исключительно абстрактными объектами - случайными величинами, в то время как в современной теории информации это понятие рассматривается значительно шире - как свойство материальных объектов.

Связь между этими двумя одинаковыми терминами несомненна. Именно математический аппарат случайных чисел использовал автор теории информации Клод Шеннон. Сам он подразумевает под термином «информация» нечто фундаментальное (нередуцируемое). В теории Шеннона интуитивно полагается, что информация имеет содержание. Информация уменьшает общую неопределённость и информационную энтропию. Количество информации доступно измерению. Однако он предостерегает исследователей от механического переноса понятий из его теории в другие области науки.

«Поиск путей применения теории информации в других областях науки не сводится к тривиальному переносу терминов из одной области науки в другую. Этот поиск осуществляется в длительном процессе выдвижения новых гипотез и их экспериментальной проверке.» К. Шеннон.

В юриспруденции

Правовое определение понятия «информация» дано в федеральном законе от 27 июля 2006 года № 149-ФЗ «Об информации, информационных технологиях и о защите информации» (Статья 2): «информация - сведения (сообщения, данные) независимо от формы их представления».

Федеральный закон № 149-ФЗ определяет и закрепляет права на защиту информации и информационную безопасность граждан и организаций в ЭВМ и в информационных системах, а также вопросы информационной безопасности граждан, организаций, общества и государства.

В теории управления

В теории управления (кибернетике), предметом исследования которой являются основные законы управления, то есть развития систем управления, информацией называются сообщения, получаемые системой из внешнего мира при адаптивном управлении (приспособлении, самосохранении системы управления).

Основоположник кибернетики Норберт Винер говорил об информации так:

"Информация - это не материя и не энергия, информация - это информация". Но основное определение информации, которое он дал в нескольких своих книгах, следующее: информация - это обозначение содержания, полученное нами из внешнего мира в процессе приспосабливания к нему нас и наших чувств .

- Н. Винер Кибернетика, или управление и связь в животном и машине; или Кибернетика и общество

Эта мысль Винера дает прямое указание на объективность информации, то есть её существование в природе независимо от сознания (восприятия) человека.

Объективную информацию современная кибернетика определяет как объективное свойство материальных объектов и явлений порождать многообразие состояний, которые посредством фундаментальных взаимодействий материи передаются от одного объекта (процесса) другому, и запечатлеваются в его структуре.

Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы. В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный код, или код источника. Таким образом, каждая материальная система является источником информации.

Субъективную (семантическую) информацию кибернетика определяет как смысл или содержание сообщения. (см. там же) Информация - это характеристика объекта.

Дезинформация

Дезинформацией (также дезинформированием) называется один из способов манипулирования информацией, как то введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не нужной информации, или полной, но не в нужной области, искажения контекста, искажения части информации.

Цель такого воздействия всегда одна - оппонент должен поступить так, как это необходимо манипулятору. Поступок объекта, против которого направлена дезинформация, может заключаться в принятии нужного манипулятору решения или в отказе от принятия невыгодного для манипулятора решения. Но в любом случае конечная цель - это действие, которое будет предпринято.

Информация (information)- это данные, сопровождающиеся смысловой нагрузкой.

При этом, очевидно, то, что для одних является данными, для других вполне может быть информацией. Но всегда можно точно сказать, что нужно предпринять для того, чтобы те или иные данные стали информативными для наибольшей аудитории: их нужно снабдить смысловым содержанием. Чем более полным будет это содержание, тем более информативной будет соответствующее сообщение.Информация (в системе, о системе) по отношению к окружающей среде (окружению) бывает трех типов: входная, выходная и внутренняя.

Входная информация - та, которую система воспринимает от окружающей среды. Такого рода информация называется входной информацией (по отношению к системе).

Выходная информация (по отношению к окружающей среде) - та, которую система выдает в окружающую среду.

Внутренняя, внутрисистемная информация (по отношению к данной системе) - та, которая хранится, перерабатывается, используется только внутри системы, актуализируется лишь подсистемами системы.

Информация по отношению к конечному результату проблемы бывает:

  • исходная (на стадии начала использования актуализации этой информации);
  • промежуточная (на стадии от начала до завершения актуализации информации);
  • результирующая (после использования этой информации, завершения ее актуализации).

Информация (по ее изменчивости при актуализации) бывает:

  • постоянная (не изменяемая никогда при ее актуализации);
  • переменная (изменяемая при актуализации);
  • смешанная - условно-постоянная (или условно-переменная).
  • Возможна также классификация информации и по другим признакам:
  • по стадии использования (первичная, вторичная);
  • по полноте (избыточная, достаточная, недостаточная);
  • по отношению к цели системы (синтаксическая, семантическая, прагматическая);
  • по отношению к элементам системы (статическая, динамическая);
  • по отношению к структуре системы (структурная, относительная);
  • по отношению к управлению системой (управляющая, советующая, преобразующая);
  • по отношению к территории (федеральная, региональная, местная, относящая к юридическому лицу, относящаяся к физическому лицу);
  • по доступности (открытая или общедоступная, закрытая или конфиденциальная);
  • по предметной области, по характеру использования (статистическая, коммерческая, нормативная, справочная, научная, учебная, методическая и т.д., смешанная) и другие.

Информация существует в виде документов, чертежей, рисунков, текстов, звуковых и световых сигналов, электрических и нервных импульсов и т.п..

Основные свойства информации (и сообщений):

  • полнота (содержит все необходимое для понимания информации);
  • актуальность (необходимость) и значимость (сведений);
  • ясность (выразительность сообщений на языке интерпретатора);
  • адекватность, точность, корректность интерпретации, приема и передачи;
  • интерпретируемость и понятность интерпретатору информации;
  • достоверность (отображаемого сообщениям);
  • избирательность;
  • адресность;
  • конфиденциальность;
  • информативность и значимость (отображаемых сообщений);
  • массовость (применимость ко всем проявлениям);
  • кодируемость и экономичность (кодирования, актуализации сообщений);
  • сжимаемость и компактность;
  • защищенность и помехоустойчивость;
  • доступность (интерпретатору, приемнику);
  • ценность (предполагает достаточный уровень потребителя).

Пример информации : 812 рублей, 930 рублей, 944 рубля. Более информативное сообщение : 812 рублей, 930 рублей, 944 рубля - цены на бальзам после бритья. Ещё более информативное : 812 рублей, 930 рублей, 944 рубля - цены на бальзам после бритья "Dune", 100 мл. в Москве.


Информация - это некоторая последовательность сведений, знаний, которые актуализируемы (получаемы, передаваемы, преобразуемы, сжимаемы, регистрируемы) с помощью некоторых знаков символьного, образного, жестового, звукового, сенсомоторного типа.

Информация - это данные, рассматриваемые с учетом некоторой их семантической сущности.

В итоге мы имеем следующую простую формулу:

информация = данные + смысл

Методы получения и использования информации можно разделить на три группы, иногда разграничиваемые лишь условно:

  1. эмпирические методы или методы получения эмпирической информации (эмпирических данных);
  2. теоретические методы или методы получения теоретической информации (построения теорий);
  3. эмпирико-теоретические методы (смешанные, полуэмпирические) или методы получения эмпирико-теоретической информации.

Охарактеризуем кратко эмпирические методы:

  1. Наблюдение - сбор первичной информации или эмпирических утверждений о системе (в системе).
  2. Сравнение - установление общего и различного в исследуемой системе или системах.
  3. Измерение - поиск, формулирование эмпирических фактов.
  4. Эксперимент - целенаправленное преобразование исследуемой системы (систем) для выявления ее (их) свойств.

Кроме классических форм их реализации, в последнее время используются и такие формы как опрос, интервью, тестирование и другие. Охарактеризуем кратко эмпирико-теоретические методы.

  1. Абстрагирование - установление общих свойств и сторон объекта (или объектов), замещение объекта или системы ее моделью. Абстракция в математике понимается в двух смыслах: а) абстракция, абстрагирование - метод исследования некоторых явлений, объектов, позволяющий как выделить основные, наиболее важные для исследования свойства, стороны исследуемого объекта или явления, так и игнорировать несущественные и второстепенные; б) абстракция - описание, представление объекта (явления), получаемое с помощью метода абстрагирования; особо важно в информатике такое понятие как абстракция потенциальной осуществимости, которое позволяет нам исследовать конструктивно объекты, системы с потенциальной осуществимостью (т.е. они могли бы быть осуществимы, если бы не было ограничений по ресурсам); используются и абстракция актуальной бесконечности (существования бесконечных, неконструктивных множеств, систем и процессов), а также абстракция отождествления (возможности отождествления любых двух одинаковых букв, символов любого алфавита, объектов, независимо от места их появления в словах, конструкциях, хотя их информационная ценность при этом может быть различна).
  2. Анализ - разъединение системы на подсистемы с целью выявления их взаимосвязей.
  3. Декомпозиция - разъединение системы на подсистемы с сохранением их взаимосвязей с окружением.
  4. Синтез - соединение подсистем в систему с целью выявления их взаимосвязей.
  5. Композиция - соединение подсистем в систему с сохранением их взаимосвязей с окружением.
  6. Индукция - получение знания о системе по знаниям о подсистемах; индуктивное мышление: распознавание эффективных решений, ситуаций и затем проблем, которые оно может разрешать.
  7. Дедукция - получение знания о подсистемах по знаниям о системе; дедуктивное мышление: определение проблемы и затем поиск ситуации, его разрешающей.
  8. Эвристики, использование эвристических процедур - получение знания о системе по знаниям о подсистемах системы и наблюдениям, опыту.
  9. Моделирование (простое моделирование) и/или использование приборов - получение знания об объекте с помощью модели и/или приборов; моделирование основывается на возможности выделять, описывать и изучать наиболее важные факторы и игнорировать при формальном рассмотрении второстепенные.
  10. Исторический метод - поиск знаний о системе путем использования ее предыстории, реально существовавшей или же мыслимой, возможной (виртуальной).
  11. Логический метод - метод поиска знаний о системе путем воспроизведения ее некоторых подсистем, связей или элементов в мышлении, в сознании.
  12. Макетирование - получение информации по макету объекта или системы, т.е. с помощью представления структурных, функциональных, организационных и технологических подсистем в упрощенном виде, сохраняющем информацию, которая необходима для понимания взаимодействий и связей этих подсистем.
  13. Актуализация - получение информации с помощью активизации, инициализации смысла, т.е. переводом из статического (неактуального) состояния в динамическое (актуальное) состояние; при этом все необходимые связи и отношения (открытой) системы с внешней средой должны быть учтены (именно они актуализируют систему).
  14. Визуализация - получение информации с помощью наглядного или визуального представления состояний актуализированной системы; визуализация предполагает возможность выполнения в системе операции типа "передвинуть", "повернуть", "укрупнить", "уменьшить", "удалить", "добавить" и т.д. (как по отношению к отдельным элементам, так и к подсистемам системы). Это метод визуального восприятия информации.

Кроме указанных классических форм реализации теоретико-эмпирических методов, в последнее время часто используются и такие формы как мониторинг (система наблюдений и анализа состояний системы), деловые игры и ситуации, экспертные оценки (экспертное оценивание), имитация (подражание), верификация (сопоставление с опытом и заключение об обучении) и другие формы.

Охарактеризуем кратко теоретические методы.

  1. Восхождение от абстрактного к конкретному - получение знаний о системе на основе знаний о ее абстрактных проявлениях в сознании, в мышлении.
  2. Идеализация - получение знаний о системе или о ее подсистемах путем мысленного конструирования, представления в мышлении систем и/или подсистем, не существующих в действительности.
  3. Формализация - получение знаний о системе с помощью знаков или же формул, т.е. языков искусственного происхождения, например, языка математики (или математическое, формальное описание, представление).
  4. Аксиоматизация - получение знаний о системе или процессе с помощью некоторых, специально для этого сформулированных аксиом и правил вывода из этой системы аксиом.
  5. Виртуализация - получение знаний о системе созданием особой среды, обстановки, ситуации (в которую помещается исследуемая система и/или ее исследующий субъект), которую реально, без этой среды, невозможно реализовать и получить соответствующие знания.

Мир информации огромен и многогранен. Существует очень большое количество различных оснований видовой классификации информации и информационных процессов.

Рассмотрим основные общепризнанные видовые классификации информации.

Прежде всего выделение различных видов информации происходит по сфере возникновения. Информацию, возникшую в неживой природе, называют элементарной , в мире животных – биологической , в человеческом обществе – социальной . В природе (живой и неживой) информацию несут свет, тень, цвет, звуки и запахи. В результате сочетания цвета, света и тени, а также звуков и запахов возникает эстетическая информация . Наряду с естественной эстетической информацией как результат творческой деятельности людей возникла другая её разновидность – произведения искусства (художественные, музыкальные и др.).

Кроме эстетической информации, в человеческом обществе создаётся семантическая информация как результат познания законов природы, общества и мышления.

Деление информации на эстетическую и семантическую условно. Любая информация одновременно и эстетична и семантична, только в одной может преобладать эстетическая сторона, а в другой семантическая.

Другой критерий деления на виды – это по способу восприятия информации . У человека пять органов чувств:

Зрение; с помощью глаз люди различают цвета, воспринимают зрительную информацию , к которой относятся и текстовая , и числовая , и графическая ;

Слух; уши помогают воспринимать звуковую информацию – речь, музыку, звукавые сигналы, шум;

Обоняние; с помощью носа люди получают информацию о запахах окружающего мира (обонятельная );

Вкус; вкусовые рецепторы языка дают возможность получить информацию о том, каков предмет на вкус – горький, кислый, сладкий, солёный (вкусовая );

Осязание; кончиками пальцев (или просто кожей), наощупь можно получить информацию о температуре предмета – горячий он или холодный, о качестве его поверхности – гладкий или шершавый (тактильная ).

По форме представления информация делится на текстовую , числовую , графическую , звуковую , комбинированную .

Текстовая информация – это, например, текст в учебнике, сочинение в тетради и т.п.

Примерами числовой информации служат таблица умножения, арифметический пример, счёт в хоккейном матче.

Графическая информация – это рисунки, схемы, чертежи, фотографии. Такая форма представления информации наиболее доступна, так как сразу передаёт необходимый образ (модель), а словесная и числовая требуют мысленного воссоздания образа. В тоже время графическая форма представления не даёт исчерпывающих разъяснений о передаваемой информации. Поэтому наиболее эффективно сочетание текста, числа и графики (например, при решении задач по геометрии мы используем чертёж (графика) + пояснительный текст (текст) + числовые расчёты (числа)).

Звуковая информация – это всевозможные звуки и их сочетания, окружающие нас.

Комбинированная (мультимедийная) форма представления информации в вычислительной технике становится основной. Цветная графика сочетается в этих системах со звуком и текстом, с движущимся видеоизображением и трёхмерными образами.

По общественному значению информацию делят на массовую , специальную иличную . Массовая информация предназначена для всего населения независимо от возраста, пола, рода занятий. Специальная информация рассчитана на различные категории специалистов. Личная информация адресуется ограниченному кругу лиц, связанных родственными, дружескими или другими отношениями.

Массовуюинформацию можно разделить на общественно-политическую , обыденную , научно-популярную , эстетическую . Специальную информацию делят на научную , техническую , производственную , управленческую и др. Научная информация возникает в сфере науки в результате изучения закономерностей окружающей нас природы, общественного развития и мышления. Техническая информация создаётся в процессе исследований и разработок в области механизации и автоматизации трудовой деятельности людей. Производственная информация возникает в сфере производства, сбыта и использования промышленной и сельскохозяйственной продукции.

В свою очередь научная информация классифицируется по областям наук (математическая , астрономическая , философская , по общественным и естест венным наукам и т.д.), техническая – по отраслям народного хозяйства (машиностроение , приборостроение , станкостроение , транспорт , строительство , сельское хозяйство и др.), производственная – в зависимости от характера производственных процессов (конструкторская , технологическая , планово-экономическая , эксплуатационная , о передовом опыте и др.).

Информация по отношению к окружающей среде (или к использующей её среде) бывает трёх типов: входная, выходная и внутренняя.

Входная информация (по отношению к окружающей среде) – информация, которую система воспринимает от окружающей среды.

Выходная информация (по отношению к окружающей среде) – информация, которую система выдаёт в окружающую среду.

Внутренняя, внутрисистемная информация (по отношению к системе) – информация, которая хранится, перерабатывается, используется только внутри системы, т.е. актуализируемая лишь подсистемами данной системы. Это несколько идеализированное (особенно с точки зрения физики открытых систем) понятие.

Пример . Человек воспринимает, обрабатывает входную информацию, скажем данные о погоде на улице, и формирует соответствующую выходную реакцию – насколько тепло нужно одеться. При этом используется также внутренняя информация – генетически заложенная или приобретённая физиологическая информация о подобной реакции, например о “морозостойкости” данного человека.

Информация по отношению к конечному результату проблемы бывает:

исходной (на начало актуализации этой информации);

промежуточной (от начала до завершения актуализации информации);

результирующей (после завершения её актуализации).

Пример . При решении системы линейных алгебраических уравнений информация о методах решения, среде реализации, входных данных (источники, точность и т.д.), размерности системы и другом является исходной, информация о совместимости системы уравнений, численных значениях корня и т.д. – результирующей, информация о текущих состояниях коэффициентов уравнений реализации схемы Гаусса – промежуточной.

Информация по изменчивости при её актуализации бывает:

постоянной (не изменяемой никогда при её актуализации);

переменной (изменяемой при актуализации);

смешанной (условно-постоянной или условно-переменной).

Пример . В известной физической задаче определения дальности полёта снаряда артиллерийского орудия информация об угле наклона орудия может быть переменной, информация о начальной скорости вылета снаряда – постоянной, а информация о координатах цели – условно-постоянной.

Возможна также классификация информации и по другим признакам:

По стадии использования (первичная, вторичная);

По полноте (избыточная, достаточная, недостаточная);

По отношению к цели системы (синтаксическая, семантическая, прагматическая);

По отношению к элементам системы (статическая, динамическая);

По отношению к структуре системы (структурная, относительная);

По отношению к управлению системой (управляющая, советующая, преобразующая, смешанная);

По доступу (открытая или общедоступная, закрытая или конфиденциальная, смешанная);

По отношению к территории (федеральная, региональная, местная, относящаяся к юридическому лицу, относящаяся к физическому лицу, смешанная);

По предметной области, по характеру использования (статистическая, коммерческая, нормативная, справочная, научная, учебная, методическая и т.д., смешанная) и др.


Похожая информация.


2. По форме представления:

Буквенная

Цифровая

Графическая

Кодированная

Комбинированная

3. По форме передачи:

Вербальная (словесная, звуковая)

Невербальная (представленная на определенном носителе: бумаге, дискете и т.д.)

Письменная

Печатная

Телефонная

Электронная

Спутниковая и т.д.

4. По назначению:

Экономическая

Техническая

Социальная

Организационная и т.д.

5. По общественному значению:

5.1. Массовая

Обыденная

Общественно-политическая

Эстетическая

5.2.Личная

Интуиция

5.3. Специальная

Производственная

Техническая

Управленческая

6. По изменчивости во времени:

Условно-постоянная (например, место жительства человека)

Условно-переменная (например, последовательность календарных месяцев)

Постоянная (например, дата рождения человека)

Переменная

7. По режиму передачи от одного потребителя информации другому:

В произвольные сроки

По запросу

Принудительно в определенные сроки.

Как и всякий объект, информация обладает свойствами . Информация отличается от других объектов природы и общества характерной особенностью: на свойства информации влияют как свойства исходных данных, составляющих ее содержательную часть, так и свойства методов, фиксирующих эту информацию.

Можно выделить 3 группы свойств информации:

1. Атрибутивные свойства - свойства, без которых информация не существует.

2. Прагматические свойства - свойства, которые характеризуют степень полезности информации для пользователя, потребителя и практики.

3. Динамические свойства - свойства, которые характеризуют изменение информации во времени.

Рассмотрим подробнее указанные группы свойств информации.

Атрибутивные свойства информации.

Дискретность . Информацию характеризуют отдельные фактические данные, закономерности и свойства изучаемых объектов, которые распространяются в виде различных сообщений, состоящих из линии, составного цвета, буквы, цифры, символа, знака.

Неотрывность информации от физического носителя и языковая природа информации. Однако, информация не связана жестко ни с конкретным языком, ни с конкретным носителем.

Непрерывность . Информация имеет свойство сливаться с уже зафиксированной и накопленной ранее, тем самым, способствуя поступательному развитию и накоплению.

Передаваемость информации с помощью каналов связи (в том числе с помехами) хорошо исследована в рамках теории информации К. Шеннона. В данном случае имеется ввиду несколько иной аспект: способность информации к копированию, т.е. к тому, что она может быть «запомнена» другой системой и при этом останется тождественной самой себе. Очевидно, что количество информации не должно возрастать при копировании.

Воспроизводимость информации тесно связана с ее передаваемостью и не является ее независимым базовым свойством. Если передаваемость означает, что не следует считать существенными пространственные отношения между частями системы, между которыми передается информация, то воспроизводимость характеризует неиссякаемость и неистощимость информации, т.е. при копировании информация остается тождественной самой себе.

Преобразуемость - фундаментальное свойство информации. Оно означает, что информация может менять способ и форму своего существования.

Копируемость есть разновидность преобразования информации, при котором ее количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может.

Прагматические свойства информации.

Адекватность - степень соответствия реальному объективному состоянию дела. Неадекватная информация может образовываться при создании новой информации на основе неполных или недостоверных данных. Однако и полные, и достоверные данные могут приводить к созданию неадекватной информации в случае применения к ним неадекватных методов.

Актуальность - степень соответствия информации текущему моменту времени. Актуальность - важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.

Доступность - свойство информации, характеризующее возможность ее получения данным потребителем. Отсутствие доступа к данным или соответствующих методов обработки данных приводит к одинаковому результату: информация оказывается недоступной.

Достоверность . Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:

Преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;

Искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.

Защищенность - свойство, характеризующее невозможность несанкционированного использования или изменения информации.

Объективность и субъективность . Объективный - существующий вне и независимо от человеческого сознания. Информация - это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения. Понятие объективности информации является относительным, т.к. методы являются субъективными. Более объективной принято считать ту информацию, в которую методы вносят меньший субъективный элемент. Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании конкретного человека, информация перестает быть объективной, т.к., преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта. В ходе информационного процесса степень объективности информации всегда понижается. Это свойство учитывают, например, в правовых дисциплинах, где по-разному обрабатываются показания лиц, непосредственно наблюдавших события или получивших информацию косвенным путем (посредством умозаключений или со слов третьих лиц).

Полезность . Уменьшение неопределенности сведений об объекте. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью. Дезинформация расценивается как отрицательные значения полезной информации.

Полнота . Характеризует качество информации и определяет достаточность данных для принятия решений или для создания новых данных на основе имеющихся. Неполная информация может привести к ошибочному выводу или решению.

Релевантность - способность информации соответствовать нуждам (запросам) потребителя.

Смысл и новизна . Информация перемещается в социальных коммуникациях (взаимодействиях потребителей) и выделяется та ее часть, которая нова для потребителя.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.

Ценность . Ценность информации различна для различных потребителей и пользователей. Самая ценная информация - объективная, достоверная, полная, и актуальная. При этом следует учитывать, что и необъективная, недостоверная информация (например, художественная литература), имеет большую значимость для человека.

Эргономичность - свойство, характеризующее удобство формы или объема информации с точки зрения данного потребителя.

Динамические свойства информации.

Кумулятивность (от лат. cumulatio - увеличение, скопление) характеризует накопление и хранение информации.

Рост информации . С течением времени количество информации растет, информация накапливается, происходит ее систематизация, оценка и обобщение.

Старение . Информация подвержена влиянию времени. Старение информации заключается в уменьшении ее ценности с течением времени. Старит информацию не само время, а появление новой информации, которая уточняет, дополняет или отвергает полностью или частично более раннюю. Научно-техническая информация стареет быстрее, эстетическая (произведения искусства) - медленнее.

Стираемость . Это свойство связано с таким преобразованием информации (передачей), при котором ее количество уменьшается и становится равным нулю.

Запоминаемость . С запоминаемой информацией мы имеем дело в реальной практике.

Рассматриваются основные понятия информатики – алфавит, слово, информация, сообщение, измерение сообщений и информации, виды и свойства информации, меры количества информации (по Хартли и Шеннону), их свойства и значение, вопросы связанные с информационными системами и управлением в системе.

Понятие информации является наиболее сложным для понимания и обычно во вводных курсах информатики не определяется, принимается как исходное базовое понятие, понимается интуитивно, наивно. Часто это понятие отождествляется неправильным образом с понятием "сообщение" .

Понятие "информация" имеет различные трактовки в разных предметных областях. Например, информация может пониматься как:

    абстракция, абстрактная модель рассматриваемой системы (в математике);

    сигналы для управления, приспособления рассматриваемой системы (в кибернетике);

    мера хаоса в рассматриваемой системе (в термодинамике);

    вероятность выбора в рассматриваемой системе (в теории вероятностей);

    мера разнообразия в рассматриваемой системе (в биологии) и др.

Рассмотрим это фундаментальное понятие информатики на основе понятия "алфавит" ("алфавитный", формальный подход). Дадим формальное определение алфавита .

Алфавит – конечное множество различных знаков, символов, для которых определена операция конкатенации (приписывания, присоединения символа к символу или цепочке символов); с ее помощью по определенным правилам соединения символов и слов можно получать слова (цепочки знаков) и словосочетания (цепочки слов ) в этом алфавите (над этим алфавитом ).

Буквой или знаком называется любой элемент x алфавита X , где
. Понятие знака неразрывно связано с тем, что им обозначается ("со смыслом"), они вместе могут рассматриваться как пара элементов(x , y ), где x – сам знак, а y – обозначаемое этим знаком.

Пример. Примеры алфавитов : множество из десяти цифр, множество из знаков русского языка, точка и тире в азбуке Морзе и др. В алфавите цифр знак 5 связан с понятием "быть в количестве пяти элементов".

Конечная последовательность букв алфавита называется словом в алфавите (или над алфавитом ).

Длиной |p| некоторого слова p над алфавитом Х называется число составляющих его букв .

Слово (обозначаемое символом Ø) имеющее нулевую длину , называется пустым словом : |Ø| = 0.

Множество различных слов над алфавитом X обозначим через S (X ) и назовем словарным запасом (словарем) алфавита (над алфавитом ) X .

В отличие от конечного алфавита , словарный запас может быть и бесконечным.

Слова над некоторым заданным алфавитом и определяют так называемые сообщения .

Пример. Слова над алфавитом кириллицы – "Информатика", "инто", "ииии", "и". Слова над алфавитом десятичных цифр и знаков арифметических операций – "1256", "23+78", "35–6+89". Слова над алфавитом азбуки Морзе – ".", ". . –", "– – –".

В алфавите должен быть определен порядок следования букв (порядок типа "предыдущий элемент – последующий элемент"), то есть любой алфавит имеет упорядоченный вид X = {x 1 , x 2 , …, x n } .

Таким образом, алфавит должен позволять решать задачу лексикографического (алфавитного) упорядочивания, или задачу расположения слов над этим алфавитом , в соответствии с порядком, определенным в алфавите (то есть по символам алфавита ).

Информация – это некоторая упорядоченная последовательность сообщений , отражающих, передающих и увеличивающих наши знания.

Информация актуализируется с помощью различной формы сообщений – определенного вида сигналов, символов.

Информация по отношению к источнику или приемнику бывает трех типов: входная, выходная и внутренняя .

Информация по отношению к конечному результату бывает исходная, промежуточная и результирующая .

Информация по ее изменчивости бывает постоянная, переменная и смешанная .

Информация по стадии ее использования бывает первичная и вторичная .

Информация по ее полноте бывает избыточная, достаточная и недостаточная .

Информация по доступу к ней бывает открытая и закрытая .

Есть и другие типы классификации информации .

Пример. В философском аспекте информация делится на мировозренческую, эстетическую, религиозную, научную, бытовую, техническую, экономическую, технологическую .

Основные свойства информации :

  • актуальность;

    адекватность;

    понятность;

    достоверность;

    массовость;

    устойчивость;

    ценность и др.

Информация – содержание сообщения , сообщение – форма информации .

Любые сообщения измеряются в байтах , килобайтах , мегабайтах , гигабайтах , терабайтах , петабайтах и эксабайтах , а кодируются, например, в компьютере, с помощью алфавита из нулей и единиц, записываются и реализуются в ЭВМ в битах .

Приведем основные соотношения между единицами измерения сообщений :

1 бит (bi nary digit – двоичное число) = 0 или 1,

1 байт 8 битов ,

1 килобайт (1К) = 2 13 бит ,

1 мегабайт (1М) = 2 23 бит ,

1 гигабайт (1Г) = 2 33 бит ,

1 терабайт (1Т) = 2 43 бит ,

1 петабайт (1П) = 2 53 бит ,

1 эксабайт (1Э) = 2 63 бит .

Пример. Найти неизвестные х и у, если верны соотношения:

128 y (К) = 32 x (бит );

2 x (М) = 2 y (байт ).

Выравниваем единицы измерения информации :

2 7y (K) = 2 7y+13 (бит );

2 x (M) = 2 x+20 (байт ).

Подставляя в уравнения и отбрасывая размерности информации , получаем:

Отсюда получаем систему двух алгебраических уравнений:

или, решая эту систему, окончательно получаем, x = –76,5, у = –56,5.

Для измерения информации используются различные подходы и методы, например, с использованием меры информации по Р. Хартли и К. Шеннону.

Количество информации – число, адекватно характеризующее разнообразие (структурированность, определенность, выбор состояний и т.д.) в оцениваемой системе. Количество информации часто оценивается в битах , причем такая оценка может выражаться и в долях битов (так речь идет не об измерении или кодировании сообщений ).

Мера информации – критерий оценки количества информации. Обычно она задана некоторой неотрицательной функцией, определенной на множестве событий и являющейся аддитивной, то есть мера конечного объединения событий (множеств) равна сумме мер каждого события.

Рассмотрим различные меры информации.

Возьмем меру Р. Хартли. Пусть известны N состояний системы S (N опытов с различными, равновозможными, последовательными состояниями системы). Если каждое состояние системы закодировать двоичными кодами, то длину кода d необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N :

Логарифмируя это неравенство, можно записать:

Наименьшее решение этого неравенства или мера разнообразия множества состояний системы задается формулой Р. Хартли :

(бит ).

Пример. Чтобы определить состояние системы из четырех возможных состояний, то есть получить некоторую информацию о системе, необходимо задать 2 вопроса. Первый вопрос, например: "Номер состояния больше 2?". Узнав ответ ("да", "нет"), мы увеличиваем суммарную информацию о системе на 1 бит (I = log 2 2). Далее необходим еще один уточняющий вопрос, например, при ответе "да": "Состояние – номер 3?". Итак, количество информации равно 2 битам (I = log 2 4). Если система имеет n различных состояний, то максимальное количество информации равно I = log 2 n .

Если во множестве X = {x 1 , x 2 , ..., x n } искать произвольный элемент, то для его нахождения (по Хартли) необходимо иметь не менее log a n (единиц) информации .

Уменьшение Н говорит об уменьшении разнообразия состояний N системы.

Увеличение Н говорит об увеличении разнообразия состояний N системы.

Мера Хартли подходит лишь для идеальных, абстрактных систем, так как в реальных системах состояния системы не одинаково осуществимы (не равновероятны).

Для таких систем используют более подходящую меру К. Шеннона. Мера Шеннона оценивает информацию отвлеченно от ее смысла:

,

где n – число состояний системы; р i – вероятность (относительная частота) перехода системы в i -е состояние, а сумма всех p i должна равняться 1.

Если все состояния рассматриваемой системы равновозможны, равновероятны, то есть р i = 1/n , то из формулы Шеннона можно получить (как частный случай) формулу Хартли :

I = log 2 n .

Пример. Если положение точки в системе из 10 клеток известно, например если точка находится во второй клетке, то есть

р i = 0, i = 1, 3, 4, …, 10, р 2 = 1 ,

то тогда получаем количество информации, равное нулю I = log 2 1 = 0 .

Обозначим величину:
. Тогда изформулы К. Шеннона следует, что количество информации I можно понимать как среднеарифметическое величин f i , то есть величину f i можно интерпретировать как информационное содержание символа алфавита с индексом i и величиной p i вероятности появления этого символа в любом сообщении (слове ), передающем информацию .

В термодинамике известен так называемый коэффициент Больцмана K = 1.38 × 10 –16 (эрг/град) и выражение (формула Больцмана ) для энтропии или меры хаоса в термодинамической системе:

.

Сравнивая выражения для I и S , можно заключить, что величину I можно понимать как энтропию из-за нехватки информации в системе (о системе).

Основное функциональное соотношение между энтропией и информацией имеет вид:

Из этой формулы следуют важные выводы:

    увеличение меры Шеннона свидетельствует об уменьшении энтропии (увеличении порядка) системы;

    уменьшение меры Шеннона свидетельствует об увеличении энтропии (увеличении беспорядка) системы.

Положительная сторона формулы Шеннона – ее отвлеченность от смысла информации . Кроме того, в отличие от формулы Хартли , она учитывает различность состояний, что делает ее пригодной для практических вычислений. Основная отрицательная сторона формулы Шеннона – она не распознает различные состояния системы с одинаковой вероятностью.

Методы получения информации можно разбить на три большие группы.

    Эмпирические методы или методы получения эмпирических данных.

    Теоретические методы или методы построения различных теорий.

    Эмпирико-теоретические методы (смешанные) или методы построения теорий на основе полученных эмпирических данных об объекте, процессе, явлении.

Охарактеризуем кратко эмпирические методы.

    Наблюдение – сбор первичной информации об объекте, процессе, явлении.

    Сравнение – обнаружение и соотнесение общего и различного.

    Измерение – поиск с помощью измерительных приборов эмпирических фактов.

    Эксперимент – преобразование, рассмотрение объекта, процесса, явления с целью выявления каких-то новых свойств.

Кроме классических форм их реализации, в последнее время используются опрос, интервью, тестирование и другие.

Охарактеризуем кратко эмпирико-теоретические методы.

    Абстрагирование – выделение наиболее важных для исследования свойств, сторон исследуемого объекта, процесса, явления и игнорирование несущественных и второстепенных.

    Анализ – разъединение целого на части с целью выявления их связей.

    Декомпозиция – разъединение целого на части с сохранением их связей с окружением.

    Синтез – соединение частей в целое с целью выявления их взаимосвязей.

    Композиция - соединение частей целого с сохранением их взаимосвязей с окружением.

    Индукция – получение знания о целом по знаниям о частях.

    Дедукция – получение знания о частях по знаниям о целом.

    Эвристики, использование эвристических процедур – получение знания о целом по знаниям о частях и по наблюдениям, опыту, интуиции, предвидению.

    Моделирование (простое моделирование) , использование приборов – получение знания о целом или о его частях с помощью модели или приборов.

    Исторический метод – поиск знаний с использованием предыстории, реально существовавшей или же мыслимой.

    Логический метод – поиск знаний путем воспроизведения частей, связей или элементов в мышлении.

    Макетирование – получение информации по макету, представлению частей в упрощенном, но целостном виде.

    Актуализация – получение информации с помощью перевода целого или его частей (а следовательно, и целого) из статического состояния в динамическое состояние.

    Визуализация – получение информации с помощью наглядного или визуального представления состояний объекта, процесса, явления.

Кроме указанных классических форм реализации теоретико-эмпирических методов часто используются и мониторинг (система наблюдений и анализа состояний), деловые игры и ситуации, экспертные оценки (экспертное оценивание), имитация (подражание) и другие формы.

Охарактеризуем кратко теоретические методы.

    Восхождение от абстрактного к конкретному – получение знаний о целом или о его частях на основе знаний об абстрактных проявлениях в сознании, в мышлении.

    Идеализация – получение знаний о целом или его частях путем представления в мышлении целого или частей, не существующих в действительности.

    Формализация – получение знаний о целом или его частях с помощью языков искусственного происхождения (формальное описание, представление).

    Аксиоматизация – получение знаний о целом или его частях с помощью некоторых аксиом (не доказываемых в данной теории утверждений) и правил получения из них (и из ранее полученных утверждений) новых верных утверждений.

    Виртуализация – получение знаний о целом или его частях с помощью искусственной среды, ситуации.

Пример. Для построения модели планирования и управления производством в рамках страны, региона или крупной отрасли нужно решить следующие проблемы:

    определить структурные связи, уровни управления и принятия решений, ресурсы; при этом чаще используются методы наблюдения, сравнения, измерения, эксперимента, анализа и синтеза, дедукции и индукции, эвристический, исторический и логический методы, макетирование и др.;

    определить гипотезы, цели, возможные проблемы планирования; наиболее используемые методы – наблюдение, сравнение, эксперимент, абстрагирование, анализ, синтез, дедукция, индукция, эвристический, исторический, логический и др.;

    конструирование эмпирических моделей; наиболее используемые методы – абстрагирование, анализ, синтез, индукция, дедукция, формализация, идеализация и др.;

    поиск решения проблемы планирования и просчет различных вариантов, директив планирования, поиск оптимального решения; используемые чаще методы – измерение, сравнение, эксперимент, анализ, синтез, индукция, дедукция, актуализация, макетирование, визуализация, виртуализация и др.

Суть задачи управления системой – отделение ценной информации от "шумов" (бесполезного, иногда даже вредного для системы возмущения информации ) и выделение информации , которая позволяет этой системе существовать и развиваться.

Информационная система – это система, в которой элементы, структура, цель, ресурсы рассматриваются на информационном уровне (хотя, естественно, имеются и другие уровни рассмотрения).

Информационная среда – это среда (система и ее окружение) из взаимодействующих информационных систем , включая и информацию , актуализируемую в этих системах.

Установление отношений и связей, описание их формальными средствами, языками, разработка соответствующих описаниям моделей, методов, алгоритмов, создание и актуализация технологий, поддерживающих эти модели и методы, и составляет основную задачу информатики как науки, образовательной области, сферы человеческой деятельности.

Информатику можно определить как науку, изучающую неизменные сущности (инварианты) информационных процессов, которые протекают в различных предметных областях, в обществе, в познании, в природе.

Статьи по теме: