Информация - это данные в различных видах. Смотреть что такое "Информация" в других словарях

Информация (от лат. informatio, разъяснение, изложение, осведомлённость) - сведения о чём-либо, независимо от формы их представления.

В настоящее время не существует единого определения информации как научного термина. С точки зрения различных областей знания данное понятие описывается своим специфическим набором признаков. Например, понятие «информация» является базовым в курсе информатики, и невозможно дать его определение через другие, более «простые» понятия (так же, в геометрии, например, невозможно выразить содержание базовых понятий «точка», «луч», «плоскость» через более простые понятия). Содержание основных, базовых понятий в любой науке должно быть пояснено на примерах или выявлено путём их сопоставления с содержанием других понятий. В случае с понятием «информация» проблема его определения ещё более сложная, так как оно является общенаучным понятием. Данное понятие используется в различных науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой науке понятие «информация» связано с различными системами понятий.

История понятия

Слово «информация» происходит от лат. informatio, что в переводе обозначает сведение, разъяснение, ознакомление. Понятие информации рассматривалось ещё античными философами.

До начала промышленной революции, определение сути информации оставалось прерогативой преимущественно философов. В XX веке вопросами теории информации стали заниматься кибернетика и информатика.

Классификация информации

Информацию можно разделить на виды по различным критериям:

по способу восприятия :

по форме представления :

по назначению :

по значению :

  • Актуальная - информация, ценная в данный момент времени.
  • Достоверная - информация, полученная без искажений.
  • Понятная - информация, выраженная на языке, понятном тому, кому она предназначена.
  • Полная - информация, достаточная для принятия правильного решения или понимания.
  • Полезная - полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

по истинности :

Значение термина в различных областях знания

Философия

Традиционализм субъективного постоянно доминировал в ранних философских определениях информации, как категории, понятия, свойства материального мира. Информация существует независимо от нашего сознания, и может иметь отражение в нашем восприятии только как результат взаимодействия: отражения, чтения, получения в виде сигнала, стимула. Информация нематериальна, как и все свойства материи. Информация стоит в ряду: материя, пространство, время, системность, функция, и др. что есть основополагающие понятия формализованного отражения объективной реальности в её распространении и изменчивости, разнообразии и проявленности. Информация - свойство материи и отражает её свойства (состояние или способность взаимодействия) и количество (мера) путём взаимодействия.

С материальной точки зрения информация - это порядок следования объектов материального мира. Например, порядок следования букв на листе бумаги по определенным правилам является письменной информацией. Порядок следования разноцветных точек на листе бумаги по определенным правилам является графической информацией. Порядок следования музыкальных нот является музыкальной информацией. Порядок следования генов в ДНК является наследственной информацией. Порядок следования битов в ЭВМ является компьютерной информацией и т. д. и т. п. Для осуществления информационного обмена требуется наличие необходимых и достаточных условий.

Необходимые условия:

  1. Наличие не менее двух различных объектов материального или нематериального мира.
  2. Наличие у объектов общего свойства, позволяющего идентифицировать объекты в качестве носителя информации.
  3. Наличие у объектов специфического свойства, позволяющего различать объекты друг от друга.
  4. Наличие свойства пространства, позволяющее определить порядок следования объектов. Например, расположение письменной информации на бумаге - это специфическое свойство бумаги, позволяющее располагать буквы слева направо и сверху вниз.

Достаточное условие одно:

Наличие субъекта, способного распознавать информацию. Это человек и человеческое общество, общества животных, роботов и т. д.

Различные объекты (буквы, символы, картинки, звуки, слова, предложения, ноты и тп.) взятые по одному разу образуют базис информации. Информационное сообщение строится путем выбора из базиса копий объектов и расположение этих объектов в пространстве в определенном порядке. Длина информационного сообщения определяется как количество копий объектов базиса и всегда выражается целым числом. Необходимо различать длину информационного сообщения, которое всегда измеряется целым числом, и количество знаний, содержащегося в информационном сообщении, которое измеряется в неизвестной единице измерения.

С математической точки зрения информация - это последовательность целых чисел, которые записаны в вектор. Числа - это номер объекта в базисе информации. Вектор называется инвариантом информации, так как он не зависит от физической природы объектов базиса. Одно и то же информационное сообщение может быть выражено буквами, словами, предложениями, файлами, картинками, нотами, песнями, видеоклипами, любой комбинацией всех ранее названных. Чем бы мы ни выражали информацию - изменяется только базис, а не инвариант.

В информатике

Предметом изучения науки информатика являются именно данные: методы их создания, хранения, обработки и передачи. А сама информация, зафиксированная в данных, её содержательный смысл интересны пользователям информационных систем, являющимся специалистами различных наук и областей деятельности: медика интересует медицинская информация, геолога - геологическая, предпринимателя - коммерческая и т. п. (в том числе специалиста по информатике интересует информация по вопросам работы с данными).

Системология

Работа с информацией связана с преобразованиями и всегда подтверждает её материальную природу:

  • запись - формирование структуры материи и модуляции потоков путём взаимодействия инструмента с носителем;
  • хранение - стабильность структуры (квазистатика) и модуляции (квазидинамика);
  • чтение (изучение) - взаимодействие зонда (инструмента, преобразователя, детектора) с субстратом или потоком материи.

Системология рассматривает информацию через связь с другими основаниями: I=S/F, где: I - информация; S - системность мироздания; F - функциональная связь; M - материя; v - (v подчёркнутое) знак великого объединения (системности, единства оснований); R - пространство; T - Время.

В физике

Объекты материального мира находятся в состоянии непрерывного изменения, которое характеризуется обменом энергией объекта с окружающей средой. Изменение состояния одного объекта всегда приводит к изменению состояния некоторого другого объекта окружающей среды. Это явление вне зависимости от того, как, какие именно состояния и каких именно объектов изменились, может рассматриваться как передача сигнала от одного объекта другому. Изменение состояния объекта при передаче ему сигнала называется регистрацией сигнала.

Сигнал или последовательность сигналов образуют сообщение, которое может быть воспринято получателем в том или ином виде, а также в том или ином объёме. Информация в физике есть термин, качественно обобщающий понятия «сигнал» и «сообщение». Если сигналы и сообщения можно исчислять количественно, то можно сказать, что сигналы и сообщения являются единицами измерения объёма информации.

Одно и то же сообщение (сигнал) разными системами интерпретируется по-своему. Например, последовательно длинный и два коротких звуковых (а тем более в символьном кодировании -..) сигнала в терминологии азбуки Морзе - это буква Д (или D), в терминологии БИОС от фирмы AWARD - неисправность видеокарты.

В математике

В математике теория информации (математическая теория связи) - раздел прикладной математики, определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. Основные разделы теории информации - кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Математика является больше чем научной дисциплиной. Она создает единый язык всей Науки.

Предметом исследований математики являются абстрактные объекты: число, функция, вектор, множество, и другие. При этом большинство из них вводится акcиоматически (аксиома), то есть без всякой связи с другими понятиями и без какого-либо определения.

Информация не входит в число предметов исследования математики. Тем не менее, слово «информация» употребляется в математических терминах - собственная информация и взаимная информация, относящихся к абстрактной (математической) части теории информации. Однако, в математической теории понятие «информация» связано с исключительно абстрактными объектами - случайными величинами, в то время как в современной теории информации это понятие рассматривается значительно шире - как свойство материальных объектов.

Связь между этими двумя одинаковыми терминами несомненна. Именно математический аппарат случайных чисел использовал автор теории информации Клод Шеннон. Сам он подразумевает под термином «информация» нечто фундаментальное (нередуцируемое). В теории Шеннона интуитивно полагается, что информация имеет содержание. Информация уменьшает общую неопределённость и информационную энтропию. Количество информации доступно измерению. Однако он предостерегает исследователей от механического переноса понятий из его теории в другие области науки.

«Поиск путей применения теории информации в других областях науки не сводится к тривиальному переносу терминов из одной области науки в другую. Этот поиск осуществляется в длительном процессе выдвижения новых гипотез и их экспериментальной проверке.» К. Шеннон.

В юриспруденции

Правовое определение понятия «информация» дано в федеральном законе от 27 июля 2006 года № 149-ФЗ «Об информации, информационных технологиях и о защите информации» (Статья 2): «информация - сведения (сообщения, данные) независимо от формы их представления».

Федеральный закон № 149-ФЗ определяет и закрепляет права на защиту информации и информационную безопасность граждан и организаций в ЭВМ и в информационных системах, а также вопросы информационной безопасности граждан, организаций, общества и государства.

В теории управления

В теории управления (кибернетике), предметом исследования которой являются основные законы управления, то есть развития систем управления, информацией называются сообщения, получаемые системой из внешнего мира при адаптивном управлении (приспособлении, самосохранении системы управления).

Основоположник кибернетики Норберт Винер говорил об информации так:

"Информация - это не материя и не энергия, информация - это информация". Но основное определение информации, которое он дал в нескольких своих книгах, следующее: информация - это обозначение содержания, полученное нами из внешнего мира в процессе приспосабливания к нему нас и наших чувств .

- Н. Винер Кибернетика, или управление и связь в животном и машине; или Кибернетика и общество

Эта мысль Винера дает прямое указание на объективность информации, то есть её существование в природе независимо от сознания (восприятия) человека.

Объективную информацию современная кибернетика определяет как объективное свойство материальных объектов и явлений порождать многообразие состояний, которые посредством фундаментальных взаимодействий материи передаются от одного объекта (процесса) другому, и запечатлеваются в его структуре.

Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы. В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный код, или код источника. Таким образом, каждая материальная система является источником информации.

Субъективную (семантическую) информацию кибернетика определяет как смысл или содержание сообщения. (см. там же) Информация - это характеристика объекта.

Дезинформация

Дезинформацией (также дезинформированием) называется один из способов манипулирования информацией, как то введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не нужной информации, или полной, но не в нужной области, искажения контекста, искажения части информации.

Цель такого воздействия всегда одна - оппонент должен поступить так, как это необходимо манипулятору. Поступок объекта, против которого направлена дезинформация, может заключаться в принятии нужного манипулятору решения или в отказе от принятия невыгодного для манипулятора решения. Но в любом случае конечная цель - это действие, которое будет предпринято.

1. 8 теории информации этот термин употребляется формальным образом для квантификации массива пунктов в терминах числа выборов, которые есть у каждого, имеющего дело с этими пунктами. По определению, количество информации, измеряемое в битах и сокращенно обозначаемое как Н, содержащееся в массиве равновероятных выборов, выражается как log2 N, где N – число выборов. Таким образом, ответ на вопрос: "Дождь идет?" – будет обеспечивать один бит информации, так как имеется только два выбора (да или нет) и log2 2=1. (Обратите внимание, что не имеет значения, истинен ответ или нет.) Если кто-то выбирает из 16 равновероятных альтернатив, этим выбором будет обеспечиваться 4 бита информации (log216 = 4). В общем, чем менее вероятно событие, тем большее количество информации передается с его возникновением.

Интересно, что это употребление понятия информация параллельно тому, что физикам известно как энтропия или случайность. Когда множество сильно структурировано и не характеризуется случайностью, показатели и энтропии, и информации низкие. Это значение термина, следовательно, связано не с тем, что сообщено, но с тем, что могло бы быть сообщено; следовательно, его следует концептуально различать с 2. 2. Свободное значение: любой материал с содержанием. Это значение термина близко к стандартному значению в неспециальном употреблении. Информация здесь, в основном, любое знание, которое получено, обработано и понято. Когда понятие моделей обработки информации впервые вводилось в когнитивной психологии, термин информация использовался в значении 1. Однако трудность в определении того, сколько информации содержится в чем-то и, следовательно, обрабатывается кем-то, кто имеет дело с относительно прямым, но сложным сообщением (например, это предложение), быстро привела к смещению к значению 2.

ИНФОРМАЦИЯ

information; Information) относится ко всем тем данным, которые поступают к человеку извне по разным чувственно-перцептуальным и сенсорно-моторным каналам, а также к тем данным, которые уже переработаны центральной нервной системой, интериоризованы и реинтерпретированы человеком и представлены в его голове в виде ментальных репрезентаций. Когнитивный поворот в науке поставил в центр исследовательских интересов прежде всего когнитивную информацию как специфически человеческую информацию, приобретаемую в опыте познания мира при восприятии и обобщении этого опыта. Собственно предметом когнитивной науки является ментальная информация, которую Дж.Фодор определяет как «внутренний код» ; Дж.Миллер и Ф.Джонсон-Лэрд под ментальной информацией подразумевают «концептуальную структуру» [Мiller, Johnson-Laird 1976]; Р.Джекендофф к задачам когнитивной теории относит изучение структуры ментальной информации и принципов «компьютации» (вычисления) этой информации . Ментальная информация имеет отношение к различным ментальным пространствам, содержание которых могут составлять как сведения реальном мире, так и о планах, убеждениях, интенциях и т.п. Концептуальная информация рассматривается как результат познавательной деятельности человека, как та содержательная информация, которая уже стала продуктом человеческой обработки и структурации знаний. Концептуальная информация возникает в процессе осмысления всей поступающей по разным каналам информации и может включать как сведения об объективном положении дел в мире, так и сведения о возможных мирах и положении дел в них.

ИНФОРМАЦИЯ

от лат. informatio – разъяснение, изложение) – первоначально – любые сведения, передаваемые людьми устным, письменным или др. способом; с середины ХХ в. – общенаучное понятие, включающее обмен сведениями между людьми, людьми и техническими устройствами, техническими устройствами, обмен сигналами в растительном и животном мире, передачу признаков от клетки к клетке, от организма к организму. В конфликтологии информационный подход к изучению и регулированию конфликтов пока не обоснован, необходимость и значение его не осознаны в силу молодости науки. Информационный подход в конфликтологии м. б. применен в четырех основных сферах. 1. Сфера исследования реальных конфликтов, каждый из которых можно подвергнуть системно-информационному анализу. Любые решения и действия участники конфликта предпринимают на основе информационных моделей конфликтной ситуации, имеющейся у них. Сам процесс конфликтного взаимодействия представляет собой обмен И. между участниками конфликта. Ключ к пониманию конфликтов лежит в исследовании информационной среды, в условиях и под воздействием которой они возникают, развиваются и завершаются. 2. Стереотипы поведения людей в конфликтах являются результатом информационного воздействия опыта жизни человека. Изучение того, какие виды И. и каким образом формируют неосознаваемые мотивы конфликтных действий человека в будущем, – важное направление исследования и регулирования конфликтов. 3. Воздействие третьей стороны на конфликт с целью его конструктивного разрешения носит информационный характер. Качественное информационное обеспечение управления конфликтом – ключевое условие успешной работы конфликтолога. 4. Сама конфликтология представляет собой научные знания о конфликтах, развитие которых подчинено законам получения, передачи и хранения И. В ХХ в. авторы 607 диссертаций по конфликтологии использовали при проведении исследований примерно 10 % И., имеющейся по проблеме в науке, которую они представляют, и примерно 1 % И. из смежных наук. Трудности в распространении конфликтологической И. тормозят развитие науки.

ИНФОРМАЦИЯ

от лат. informare - составлять понятие о чем-либо) - совокупность сведений, уменьшающих неопределенность в выборе различных возможностей. В инженерной психологии - любые изменения в управляемом процессе, отображаемые на информационной модели или непосредственно воспринимаемые оператором, а также команды, указания о необходимости осуществления тех или иных воздействий на процесс управления. Любое сообщение информативно, если оно представляет то, чего мы не знали до этого сообщения. Сообщение представляет собой совокупность сведений о некоторой физической системе. Применительно к деятельности оператора сообщение - это совокупность зрительных, акустических и иных сигналов, воспринятых в данный момент времени, а также «сигналов», хранимых в памяти оператора. Сообщение приобретает смысл (содержит определенное количество информации) только тогда, когда состояние системы заранее не известно, случайно, то есть системе заранее присуща какая-то степень неопределенности. В качестве меры неопределенности используется понятие энтропии. Неопределенность системы уменьшается при получении каких-либо сведений об этой системе. Чем больше объем полученных сведений, чем они более содержательны, тем большей информацией о системе можно располагать. Поэтому естественно количество информации измерять уменьшением энтропии той системы, для уточнения состояния которой предназначены эти сведения. Если исходная (априорная) энтропия системы была Н(Х), а после получения сведений об этой системе (напр., после обновления информации на средствах отображения) энтропия стала Н0 (Х), то количество полученной информации равно: 1 = Н(Х)-Н0 (Х). В том практически важном случае, когда после получения сведений состояние системы стало полностью определенным, т. е. Н0 (Х) = 0, количество полученной информации равно энтропии системы: 1 = Н(Х). Используемая в деятельности оператора И. классифицируется по ряду признаков. По назначению И. может быть командной (дает указания о необходимости проведения определенных действий) и осведомительной (дает представление о сложившейся ситуации). По своему характеру И. может быть релевантной (полезной в данной ситуации) и иррелевантной (бесполезной в данной ситуации; такая И. может оказаться и вредной с точки зрения эффективности работы оператора, тогда она называется помехой). И, наконец, с точки зрения полноты И. разделяется на избыточную и безызбыточную. Введение избыточности (изображение, естественный язык и т. п.) является эффективным средством борьбы с помехами, повышает помехоустойчивость работы оператора. Количество И., передаваемой операторам со средств отображения на органы управления, может существенно отличаться от количества поступившей И. (энтропии источника И.). Это отличие обусловлено, во-первых, тем, что, как и для технического канала связи, часть информации Н п6м может быть потеряна за счет воздействия помех. Во-вторых, количество И. увеличивается за счет использования дополнительной И. Она образуется за счет привлечения некоторых данных, хранимых в памяти оператора, а также в том случае, если в процессе решения задачи оператору нужно провести какие-либо вычисления, проверить логические условия или осуществить запоминание некоторой части информации. Поэтому в общем случае количество И., перерабатываемой оператором, равно Н = Н + Н - Н. Единицей измерения количества И. является двоичная единица, или бит. Бит - это энтропия простейшей системы, имеющей два равновероятных состояния. Одну двоичную единицу один бит) оператор получает при выборе одного из двух равновероятных сигналов. В инженерной психологии и эргономике изучаются такие характеристики И., как ее количество, ценность, достоверность, избыточность, безопасность, а также такие информационные процессы, как кодирование, сжатие, старение, рассеивание, воспроизведение И.

Понятие информации. Задачи и постулаты прикладной теории информации

С начала 1950-х годов предпринимаются попытки использовать понятие информации (не имеющее до настоящего времени единого определения) для объяснения и описания самых разнообразных явлений и процессов.

В некоторых учебниках дается следующее определение информации:

Информация - это совокупность сведений, подлежащих хранению, передаче, обработке и использованию в человеческой деятельности .

Такое определение не является полностью бесполезным, т.к. оно помогает хотя бы смутно представить, о чем идет речь. Но с точки зрения логики оно бессмысленно. Определяемое понятие (информация ) здесь подменяется другим понятием (совокупность сведений) , которое само нуждается в определении.

Свойства информации:

1. полнота - свойство информации исчерпывающе (для данного потребителя) характеризовать отображаемый объект или процесс;

2. актуальность- способность информации соответствовать нуждам потребителя в нужный момент времени;

3. достоверность - свойство информации не иметь скрытых ошибок. Достоверная информация со временем может стать недостоверной, если устареет и перестанет отражать истинное положение дел;

4. доступность - свойство информации, характеризующее возможность ее получения данным потребителем;

5. релевантность - способность информации соответствовать нуждам (запросам) потребителя;

6. защищенность - свойство, характеризующее невозможность несанкционированного использования или изменения информации;

7. эргономичность - свойство, характеризующее удобство формы или объема информации с точки зрения данного потребителя.

Информацию следует считать особым видом ресурса, при этом имеется в виду толкование "ресурса" как запаса неких знаний материальных предметов или энергетических, структурных или каких-либо других характеристик предмета. В отличие от ресурсов, связанных с материальными предметами, информационные ресурсы являются неистощимыми и предполагают существенно иные методы воспроизведения и обновления, чем материальные ресурсы.

С этой точки зрения можно рассмотреть такие свойства информации:

1. запоминаемость;

2. передаваемость;

3. воспроизводимость;

4. преобразуемость;

5. стираемость.

Запоминаемость - одно из самых важных свойств. Запоминаемую информацию будем называть макроскопической (имея в виду пространственные масштабы запоминающей ячейки и время запоминания). Именно с макроскопической информацией мы имеем дело в реальной практике.

Передаваемость информации с помощью каналов связи (в том числе с помехами) хорошо исследована в рамках теории информации К.Шеннона. В данном случае имеется в виду несколько иной аспект - способность информации к копированию, т.е. к тому, что она может быть “запомнена” другой макроскопической системой и при этом останется тождественной самой себе. Очевидно, что количество информации не должно возрастать при копировании.

Воспроизводимость информации тесно связана с ее передаваемостью и не является ее независимым базовым свойством. Если передаваемость означает, что не следует считать существенными пространственные отношения между частями системы, между которыми передается информация, то воспроизводимость характеризует неиссякаемость и неистощимость информации, т.е. что при копировании информация остается тождественной самой себе.

Фундаментальное свойство информации - преобразуемость . Оно означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором ее количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может.

Свойство стираемости информации также не является независимым. Оно связано с таким преобразованием информации (передачей), при котором ее количество уменьшается и становится равным нулю.

Данных свойств информации недостаточно для формирования ее меры, так как они относятся к физическому уровню информационных процессов.

Информация всегда связана с материальным носителем.

Носителем информации может быть: любой материальный предмет (бумага, камень и т.д.);волны различной природы: акустическая (звук), электромагнитная (свет, радиоволна) и т.д.; вещество в различном состоянии: концентрация молекул в жидком растворе, температура и т.д.Машинные носители информации: перфоленты, перфокарты, магнитные ленты, и т.д.

Сигнал - способ передачи информации. Это физический процесс, имеющий информационное значение. Он может быть непрерывным или дискретным.Сигнал называется дискретным, если он может принимать лишь конечное число значений в конечном числе моментов времени.

Аналоговый сигнал - сигнал, непрерывно изменяющийся по амплитуде и во времени. Сигналы, несущие текстовую, символическую информацию, дискретны . Аналоговые сигналы используют в телефонной связи, радиовещании, телевидении. Говорить об информации вообще, а не применительно к какому-то ее конкретному виду беспредметно. Классифицировать ее можно:

  • по способам восприятия (визуальная, тактильная и т.д.);
  • по форме представления (текстовая, числовая, графическая и т. д.);
  • по общественному значению (массовая, специальная, личная).

При всех различиях в трактовке понятия информации, бесспорно, то, что проявляется информация всегда в материально-энергетической форме в виде сигналов.

Информацию, представленную в формализованном виде, позволяющем осуществлять ее обработку с помощью технических средств, называют данными .

от лат. ?nf?rm?tio - разъяснение, изложение). Одно из значений термина - сведения, сообщаемые различными способами: устными, письменными, техническими, изобразительными и т.д., а также процесс передачи этих сведений. К середине ХХ в. «информация» становится одним из центральных понятий кибернетики и приобретает общенаучное значение; появляется специальная отрасль знаний - информатика.

Отличное определение

Неполное определение ↓

Информация

лат. informatio - ознакомление, представление. 1) любые сведения, данные, сообщения, передаваемые посредством сигналов; 2) уменьшение неопределенности в результате передачи сведений, данных, сообщений - в этом качестве И. противопоставляется энтропии. До сер. 20 в. понятие И. относилось только к сведениям и сообщениям, передаваемым человеком с помощью знаковых средств, способность к передаче И. рассматривалась как отличит. характеристика человека - разумного вида, однако с развитием науки и техники понятие И. стало применяться и для характеристики процессов обмена сигналами в живой природе (сигнальное поведение у животных и растений, генетич. передача данных в клетках и т.д.), а также в среде автоматизированных средств. Интерес к изучению информ. процессов, к колич. и кач. оценке И., возникший в нач. 20 в., был обусловлен и развитием логико-математич., логико-семантич. и семиотич. исследований, привлекших внимание к проблемам представленности знаков и значений, и значит. увеличением объемов передаваемой И., и развитием техн. средств ее передачи (телеграф, телефон, радиосвязь, телевидение), происходившим в рамках модернизационных процессов. В пер. трети 20 в. исследования И. преследовали прежде всего цели уточнения процессов ее формализации (означения – см. Означение) и оптимизации условий ее передачи. Однако уже к сер. 20 в. появились первые теор. исследования, сформировавшие в дальнейшем ряд теорий И. - вероятностную, комбинаторную, алгоритмич. и др. Эти теории, разрабатывавшиеся средствами математики, позволили осуществить математич. моделирование процесса передачи И., выявить осн. элементы этого процесса (в классич. схеме, предложенной К. Шенноном, обмен И. включает шесть составляющих: источник - передатчик - канал передачи - приемник - адресат - источник помех), выявить принципы колич. оценки И. (пропускной способности) и степени ее искажения (помехоустойчивости). Разработка этих теорий привела к появлению информатики как науки, предмет к-рой - И. и способы ее передачи. Однако решающее воздействие на развитие исследований в области И. оказало появление автоматизир. средств обработки И. (ЭВМ) и кибернетики - науки о связи, управлении и информ. обработке. Развитие машинной обработки И. стимулировало исследования в области формализации и алгоритмизации (сведения к операциям с элементарными высказываниями) И. и появление развернутых теорий алгоритмического синтаксиса, а также множества языков алгоритмизации и программирования. Попытки алгоритмизации семантич. процессов - означения и понимания - хотя и были далеко не столь успешны, однако оказали значит. влияние на развитие англ. лингвистич. философии и лингвистич. семантики, а также трансформационной грамматики в русле поиска универсального языка записи семантич. характеристик. В кибернетике И. рассматривается в более узком понимании - не как любые сведения, а только как сведения, ведущие к уменьшению неопределенности (снижению количества возможных альтернативных вариантов) в ситуации общения, сведения, направленные на управление и согласование. В соответствии с таким подходом к И. в рамках общих теорий управления получили развитие исследования прагматич. аспектов И. - оценка И. с т.зр. ее актуальности (достаточная, избыточная, излишняя И.), ценности, полезности, адекватности и т.д. В рамках кибернетики стал возможен синтез математич. моделей и теорий И. с теориями социального взаимодействия и коммуникации, существенно обогативший научные представления о коммуникационных и трансляционных процессах в об-ве. На стыке информатики, кибернетики и антропологии получили также развитие нейроинформ. и нейролингвистич. исследования, рассматривавшие процессы передачи И. на уровне высшей нервной деятельности. Применительно к социокультурному материалу математич. модели И. претерпели существ. трансформацию. Было установлено, что на информ. процессы в человеч. сооб-ве помимо шести осн. элементов существенно влияют также барьеры и фильтры: внутренние (индивидуальные психич. особенности участников информ. обмена, их опыт и компетентность), и внешние (социальные и культурные нормы, ценности, коллективные представления), значительно трансформирующие, искажающие И., и при этом они не всегда носят рац. характер. Колич. оценки этих искажающих влияний (помех) совершенно недостаточно, поскольку индивидуальный характер и сложность природы этих влияний делают принципиально необходимым их содержат. кач. анализ и определение механизмов их воздействия на И. Информ. процессы в человеч. сооб-ве далеко не всегда можно интерпретировать как ведущие к снижению неопределенности ситуации, и неактуальная информация (шум) имеет здесь не меньшее значение, чем актуальная. В соответствии с этим, помимо актуальности для социально и культурно значимой И. важны адекватность, достоверность, полнота, новизна, убедительность, выразительность, воспринимаемость и т.д. Понимание того, что информ. процессы являются важной составляющей любой культурной общности (истор. и современной), и применение к их изучению методов математич. моделирования (частично осуществленное структурализмом и европ. социальной антропологией) существенно обогатило теоретико-методол. багаж социокультурных наук. Функциональный подход к И. получил дальнейшее развитие в теории коммуникации. В рамках семиотики (см. Семиотика) изучение И. осуществляется в основном в ее семантич. аспектах (И. как пространство смыслов и значений). В настоящее время изучение И. в социокультурных науках осуществляется по двум направлениям: 1) изучение информ. процессов (информ. культуры) разл. культурных общностей (гос-в, этносов, цивилизаций и т.д.); 2) исследования локальных информ. процессов в разл. видах деятельности (менеджмент, маркетинг, реклама, социальное участие, полит. деятельность и т.д.). Исследования такого рода, как правило, имеют прикладную направленность и наиболее широко привлекают достижения информатики и кибернетики. Такие исследования посвящены прежде всего совр. проблемам информ. обмена. Прогрессирующая активизация и глобализация информ. процессов (средства массовой информации, массовая культура, глобальные информ. сети и т.д.) в культуре на протяжении всего 20 в. определили признание исключит. важности информ. процессов для развития совр. об-ва и сделали И. предметом не только научного, но и философского рассмотрения. И. интерпретировалась в культурфилософии, как правило, в рамках общих представлений того или иного направления (для неотомизма характерно представление И. как трансцендентального феномена; для экзистенциализма и феноменологии - ориентация на ее субъективистскую трактовку; для филос. герменевтики (см. Герменевтика) - стремление обусловить информ. процессы культурным опытом, для постпозитивизма - акцент на некогнитивные аспекты И.). Совр. ситуация нередко характеризуется культур-философией как “информ. взрыв”, “информ. бум”, обработка И. рассматривается как осн. вид деятельности в формирующемся “постиндустриальном об-ве”, предпринимаются попытки ее филос. истолкования и предсказания возможных путей развития “информ. цивилизации”. Лит. : Шеннон К.Э. Работы по теории информации и кибернетики. М., 1963; Пирс Дж. Символы, сигналы, шумы. Закономерности и процессы передачи информации. М., 1967; Винер Н. Кибернетика или управление и связь в животном и машине. М., 1968; Гришкин И.И. Понятие информации. М., 1973; Афанасьев В.Г. Социальная информация и управление об-вом. М., 1975; Стратонович Р.Л. Теория информации. М., 1975; Дубровский Д.И. Информация, сознание, мозг. М., 1980; Страссман П.А. Информация в век электроники: Пробл. управления. М., 1987; Кин Дж. Средства массовой информации и демократия. М., 1994; Брой М. Информатика. Основополагающее введение. Ч. 1-3. М., 1996; Федотова Л.Н. Массовая информация: Стратегия производства и тактика потребления. М., 1996; Иванов А.М., Козлов В.И. Информация. Информатика. Компьютер. Самара,1996. А. Г. Шейкин. Культурология ХХ век. Энциклопедия. М.1996

В стремлении дать определение понятию И. ученые прошли за последние 50 лет эволюцию от формальных (преимущественно теоретико-математических) дефиниций того, что собой представляет и как может измеряться количество И., до новейших попыток построения универсальных концепций информационного общества, универсального метаязыка, всеобщей метатеории и т. п. Парадоксальность многих из этих концепций заключается в том, что само понятие И. в них не определяется, а принимается на интуитивном уровне. Отсюда понятен профессиональный интерес к осмыслению феномена И. среди философов.

Разработки в области теории И. содействовали сдвигам в методологии научного познания, которые нашли выражение в смещении акцентов от вещи к отношению, от поисков универсальной первоосновы бытия к признанию разнообразия в качестве базового принципа научного исследования. Именно эти категории философии - отношение и разнообразие - занимают сегодня центральное место в попытках определить природу информационных явлений.

Вместе с тем многочисленные исследования феномена И. обнаружили его связь с организацией, системностью, упорядоченностью, структурой, а также с функциональными состояниями и процессами в сложных системах управления. И тогда И. предстает как функциональное свойство процессов управления, неотделимое от последних, а теория И. - как раздел кибернетики.

Из научно-технических разработок по теории И. родились специализированные научные дисциплины. Это информатика (комбинация из слов "информация" и "автоматика") - область изучения научно-технической И., ориентирующаяся на автоматизированную обработку данных, массивов знаний производственно-технического и социального назначения с использованием вычислительной техники, средств связи и математико-программного обеспечения. Другая научная дисциплина - информология (наука об И.) - область изучения И. как фундаментального фактора бытия, закономерностей производства, передачи, получения, хранения и использования И.

Теория И. в узком смысле (математическая теория связи) - область изучения информационных процессов со стороны количества И., проходящей по каналам связи, запоминаемой и т. п.; в ней рассматриваются вопросы оптимального кодирования сообщений в форму сигнала, максимальной пропускной способности каналов связи и др., (вопрос о содержании сообщения (сигнала) обычно выносится за рамки этой теории).

Основные исторические этапы информационной эволюции общества обусловлены появлением различных носителей информации: письменности, книгопечатания, современной информационно-кибернетической (в частности, вычислительной) техники. В наше время понятие И. ассоциируется с компьютерами, рекламой, издательской деятельностью, телевидением, радио- и телеграфной связью, другими средствами массовой информации (СМИ). В науку это понятие введено в 1928 г. Р. Хартли (США) для обозначения меры количественного измерения сведений, распространяемых по техническим каналам связи (заметим, безотносительно к содержанию этих сведений). Последние, ввиду ограниченных возможностей фиксации и передачи устной речи, преобразуются источником И. сначала в форму языкового (знакового) сообщения, а затем передатчиком во вторичную, удобную для трансляции по техническим каналам связи форму сигнала, что предполагает операцию кодирования с последующим декодированием на стороне приемника. Тем самым получатель имеет на выходе приемника сообщение, которое при минимизации помех ("шума") представляет собой, с определенной степенью соответствия, копию сообщения на стороне источника. Заметим, что доведение И. до адресата (получателя), если эта И. не является ложной (дезинформацией), всегда приводит к уменьшению неопределенности в знаниях и действиях последнего. Хартли предложил логарифм при основании два для вычисления количества И. как меры неопределенности, устраняемой в результате получения И. у того, кто эту И. получает. Так возникла единица И. - бит, или "одно из двух": либо "да", либо "нет" по отношению к вопросу, фиксирующему неопределенность знаний или сведений получателя о чем-либо его интересующем. В 40-е гг. другой американский ученый К. Шеннон, специализировавшийся в вопросах пропускной способности каналов связи и кодирования сообщений, придал этой мере количества И. более универсальную форму: количество И. стало пониматься как величина энтропии, на которую уменьшается общая энтропия системы в результате получения этой системой И. Формула эта выражает энтропию через сумму целого ряда вероятностей, помноженных на их логарифмы, и относится только к энтропии (неопределенности) сообщения.

Иными словами, информативность сообщения обратно пропорциональна его очевидности, предсказуемости, вероятности: чем менее предсказуемо, неочевидно и маловероятно сообщение, тем больше И. оно несет для получателя. Совершенно очевидное (с вероятностью, равной 1) сообщение столь же пусто, сколь полное отсутствие такового (т. е. сообщения, вероятность которого заведомо равна 0). Оба они, согласно допущению Шеннона, неинформативны, не несут получателю никакой И. По ряду причин, относящихся к математике и связанных с удобствами формализации, энтропия сообщения описывается Шенноном как функция распределения случайных величин.

Проблема И. многоаспектна не только в общенаучном, но и в философском смысле. В онтологическом и мировоззренческом аспектах предпринимаются попытки раскрыть соотношение И. с веществом и энергией, ее природу и статус в структуре бытия; в гносеологическом аспекте - соотнести И. с содержанием и формой знания, с образами, знаками, моделями и т. п.; в логико-методологическом аспекте - выявить количественно-математические, измеримые стороны информационных процессов в математической теории связи, моделях массовых коммуникаций, кибернетике.

В 60 - 80-е гг. многие результаты, полученные в исследованиях предыдущего двадцатилетия, были эксплицированы в связи с исследованиями кибернетических моделей машинного перевода с одного языка на другой, теории игр и принятия решений, распознавания образов. Наряду с дальнейшей разработкой статистической (синтаксической) концепции И. появились семантические и прагматические концепции. Стало ясно, что работы Фишера, Найквиста, Хартли и Шеннона, будучи попыткой количественной экспликации качественного понятия И. как сведений, сообщений, не дают ответа на вопрос, о количестве какого качества идет речь. Интерпретация И. в этих работах носит формальный, абстрактно-математический характер. Исходным принципом создания сообщения служит принцип последовательного выбора его знак за знаком, буква за буквой из бесконечного резервуара готовых сообщений (ансамбля), и создание индивидуального сообщения есть его статистический выбор из ансамбля. Сообщения между собой статистически однородны (свойство эргодичности), поэтому математическую теорию связи интересуют индивидуальные различия сообщений, равно как и количество И., содержащейся в индивидуальном сообщении. Определимо лишь среднее количество И., приходящейся на одно сообщение в случае его выбора. Но И. выбора сообщения не есть И.. самого сообщения (Е. К. Войшвилло). Индивидуальность события не должна исчезать в однородности статистического ансамбля. Более того, А. Н. Колмогоровым и его учениками было показано, что статистическое понятие И. выражает не абсолютное ее количество, а дополнительную И., дополнение к имеющемуся у получателя информационному содержанию.

Этим был дан толчок, во-первых, разработке т. н. тезаурусной модели и, как следствие, семантической и прагматической концепций И., во-вторых, уточнению взаимосвязи между И. и разнообразием.

В 80-е и особенно в 90-е гг. обозначилась тенденция заметного размежевания специалистов в области теории И. на пессимистов и оптимистов, критиков и апологетов. Из области семантики и математических проблем теории связи дискуссии переместились в социально-этическую и политическую сферы проблем информационного общества. Объективной основой этих изменений стали громадные преимущества, которые дает развитие информационной инфраструктуры обладающим ею государствам и регионам, организациям и физическим лицам: возможность сжатой во времени переработки больших массивов И., практически мгновенной коммуникативной связи в пределах земного шара, проектирования сложных систем и управления ими и др. В ряде работ термин "информационное общество" символизирует по существу новую социальную парадигму (О. Тоффлер), исторически новый и особый тип цивилизации, идущей на смену сельскохозяйственной и индустриальной. Реальные преимущества, в возрастающей степени получаемые государствами и регионами (США, Европа, Япония) с развитыми И. технологиями и компьютерными сетями, приводят к изменению характера экономических, политических и социальных отношений, семьи, быта, досуга, образа жизни, переворачивают традиционные представления о ценности сельскохозяйственного и индустриального производства. И одновременно информатизация всех сфер жизнедеятельности современного человека, с т. зр. ее пессимистически настроенных критиков, сопровождается дегуманизацией, порождает новую и неизвестную предыдущим эпохам виртуальную реальность существования в иллюзорном мире. С социально-психологической т. зр., информатизация разрушает привычные природные ритмы и циклы жизнедеятельности людей; с нравственно-этической - вытесняет ценность и привлекательность живого общения, сопереживания, понимания; с политической - резко усиливает возможности манипулирования массовым и индивидуальным сознанием, влияния "четвертой власти" - СМИ, изменяет потенциал властных элит, в т. ч. посредством перемещения полномочий и возможностей последних из внутригосударственной сферы в область иерархии межгосударственных отношений.

С социально-исторической т. зр., негативные проявления информатизации могут быть обозначены как апофеоз рациональности, доведение европейского классического типа рациональности до логически завершенной формы информационного господства в масштабах планеты. В современной типологии исследований И. среди "оптимистов" заметна тенденция разработки на основе теории И. всеобщей метатеории и всеобщего информационного метаязыка для научных и вненаучных областей знания. Известный российский исследователь И. И. Юзвишин, разрабатывая новую обобщенную науку - информациологию (1993), предлагает концепции И. кода человека и Вселенной, информационные подходы к сохранению здоровья и увеличению долголетия, построению нового мирового сообщества и др. Цель будущего видится в создании единого мирового распределенного информационно-сотового сообщества новой информационной цивилизации, а в гносеологическом аспекте - в революционном прорыве посредством И. в трансцендентные миры.

Слово "information" переводится с латинского языка, как "осведомление", "разъяснение", и такое определение устраивало человечество до сороковых годов двадцатого века.

Этим термином пользовались для определения чисто практических понятий, таких, как некоторая совокупность знаний, сведений о конкретном предмете, явлении, событии. Такая информация носит вполне конкретный характер и во многих случаях не несёт в себе количественной оценки.

Тысячелетиями слово "информация"; было рядовым, ничем не выделяющимся среди десятков тысяч других слов. Все это долгое время человек считал себя единственным созданием, способным к передаче, приему и творению информации.

Положение стало меняться с появлением кибернетики - науки об управлении. "Кибернетика" Норберта Винера увидела свет в 1948 году. Она открыла людям глаза на то, что сейчас известно каждому - информационные процессы происходят в любом живом организме, начиная с амебы и вируса. Созданные человеком машины также работают под управлением информации. Любое сообщество живых существ - муравьев, пчел, рыб, птиц и, конечно, людей не может существовать без потоков информации, циркулирующих в нем.

Датой рождения "Теории информации” также считается 1948 год. Именно тогда в реферативном журнале американской телефонной компании "Белл систем" появилась статья 32-летнего инженера-связиста Клода Шеннона "Математическая теория связи”, в которой он предложил способ измерения количества информации. С этого момента понятие "информация" начинает расширять сферу своего применения.

Вскрытие единства процессов в живом и неживом, широкое внедрение ЭВМ, стремительное нарастание информационного потока в виде газет, журналов, книг, теле- и радиотрансляций придало совершенно другое, новое значение слову “информация”. На современном этапе развития науки признано, что понятие "информация" значительно более ёмкое и, что очень важно, существует и вне нашего восприятия. Другими словами, весь окружающий нас мир, как доступный, так и недоступный нам, всюду имеет информационную структуру.

“Информация” превратилась в необычайно широкое понятие и встала в один ряд с такими философскими категориями, как материя, энергия, пространство и время. Однако единого общепризнанного определения информации не существует до сих пор, более того, это понятие остается одним их самых дискуссионных в современной науке.

Вот различные определения этого понятия:

  1. Информация - это обозначение содержания, полученного от внешнего мира в процессе приспособления к нему (Н. Винер).
  2. Информация - отрицательная энтропия (негэнтропия) (Л. Бриллюэн).
  3. Информация - вероятность выбора (А. М. Яглом, И. М. Яглом).
  4. Информация - снятая неопределенность (К. Шеннон).
  5. Информация - мера сложности структур, мера упорядоченности материальных систем (А. Моль).
  6. Информация - снятая неразличимость, передача разнообразия (У.Р. Эшби).
  7. Информация - отраженное разнообразие (А. Д. Урсул).
  8. Информация - мера неоднородности распределения материи и энергии в пространстве и времени (В. М. Глушков).

Согласно современным теориям эволюции, процесс развития Вселенной есть процесс самоорганизации. В ходе самоорганизации кварков появились протоны и нейтроны, при самоорганизации атомов возникло множество молекул, при самоорганизации молекул появилась живая клетка, при самоорганизации клеток - организм, при самоорганизации организмов - популяции и социумы….

Повышение сложности системы, ее прогрессивное развитие связано с увеличением количества информации, накопленного системой, проявляющегося в ее структуре. Так, по данным некоторых исследований, при переходе от атомного уровня к молекулярному количество информации увеличивается в 10 3 раза. Количество информации, относящейся к организму человека, примерно в 10 11 раз больше информации, содержащейся в одноклеточном организме.

Применение информационной модели развития дает возможность прояснить механизм прогресса усложнением, упорядочиванием и повышением степени организации материальных систем (рис 3).

Статьи по теме: