Меню Рубрики

Определение информации с точки зрения техники

Информация относится к фундаментальным, неопределяемым понятиям науки информатика. Тем не менее смысл этого понятия должен быть разъяснен. Предпримем попытку рассмотреть это понятие с различных позиций.

Термин информация происходит от латинского слова informatio , что означает сведения, разъяснения, изложение . В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

в быту информацией называют любые данные, сведения, знания, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.;

в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов (в этом случае есть источник сообщений, получатель (приемник) сообщений, канал связи);

в кибернетике под информацией понимают ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;

в теории информации под информацией понимают сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Информация может существовать в виде:

текстов, рисунков, чертежей, фотографий;

световых или звуковых сигналов;

электрических и нервных импульсов;

жестов и мимики;

запахов и ощущений;

хромосом, посредством которых передаются по наследству признаки и свойства организмов, и т.д.

Свойства информации

Свойства информации (с точки зрения бытового подхода к определению);

релевантность — способность информации соответствовать нуждам потребителя;

эргономичность — свойство, характеризующее удобство формы или объема информации с точки зрения данного потребителя.

Информацию следует считать особым видом ресурса.

С этой точки зрения свойства информации:

Фундаментальное свойство информации — преобразуемость. Оно означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором ее количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может. Высшей формой информации, проявляющейся — в управлении в социальных системах, являются знания.

Информационные процессы

Под информационным понимают процесс, связанный с определенными операциями над информацией в ходе которого может измениться содержание информации или форма ее представления.

В информатике к таким процессам относят:

Определение количества информации

Любая информация может рассматриваться как уменьшение неопределенности наших знаний об окружающем мире (в теории информации принято говорить именно об уменьшении неопределенности, а не об увеличении объема знаний). Случайность события заключается в том, что реализация того или иного исхода имеет некоторую степень неопределенности. Пусть, например, абсолютно незнакомый нам ученик сдает экзамен, результатом которого может служить получение оценок 2, 3, 4 или 5. Поскольку мы ничего не знаем о данном ученике, то степень неопределенности всех перечисленных результатов сдачи экзамена совершенно одинакова. Напротив, если нам известно, как он учится, то уверенность в некоторых исходах будет больше, чем в других: так, отличник скорее всего сдаст экзамен на пятерку, а получение двойки для него — это нечто почти невероятное. Наиболее просто определить количество информации в случае, когда все исходы события могут реализоваться с равной долей вероятности . В этом случае для вычисления информации используется формула Хартли .

В более сложной ситуации, когда исходы события ожидаются с разной степенью уверенности, требуются более сложные вычисления по формуле Шеннона , которую обычно выносят за рамки школьного курса информатики. Очевидно, что формула Хартли является некоторым частным случаем более общей формулы Шеннона.

Формула Хартли была предложена в 1928 году американским инженером Р.Хартли. Она связывает количество равновероятных состояний N с количеством информации I в сообщении о том, что любое из этих состояний реализовалось.

Наиболее простая форма для данной формулы зафиксируется следующим образом:

Причем обычно значение N известно, а I приходится подбирать, что не совсем удобно. Поэтому те, кто знает математику получше, предпочитают преобразовать данную формулу так, чтобы сразу выразить искомую величину I в явном виде:

Единица информации носит название бит (от англ. Вinary digiT — двоичная цифра); таким образом, 1 бит — это информация о результате опыта с двумя равновероятными исходами.

Чем больше возможных исходов, тем больше информации в сообщении о реализации одного из них.

Пример 1. Из колоды выбрали 16 карт (все “картинки” и тузы) и положили на стол рисунком вниз. Верхнюю карту перевернули (дама пик). Сколько информации будет заключено в сообщении о том, какая именно карта оказалась сверху? Все карты одинаковы, поэтому любая из них могла быть перевернута с одинаковой вероятностью. В таких условиях применима формула Хартли. Событие, заключающееся в открытии верхней карты, для нашего случая могло иметь 16 возможных исходов. Следовательно, информация о реализации одного из них равняется

I = log 2 16 = 4 бита

Примечание. Если вы не любите логарифмы, можно записать формулу Хартли в виде 2 i = 16 и получить ответ, подбирая такое I , которое ей удовлетворяет.

Алфавитный (объемный) подход к измерению информации

Он заключается в определении количества информации в каждом из знаков дискретного сообщения с последующим подсчетом количества этих знаков в сообщении. Пусть сообщение кодируется с помощью некоторого набора знаков. Заметим, что если для данного набора установлен порядок следования знаков , то он называется алфавитом . Пусть алфавит, с помощью которого записываются все сообщения, состоит из N символов . Для простоты предположим, что все они появляются в тексте с одинаковой вероятностью. Тогда применима формула Хартли для вычисления информации

Информация

Информация (от лат. informatio, разъяснение, изложение, осведомлённость) — сведения о чём-либо, независимо от формы их представления.

В настоящее время не существует единого определения информации как научного термина. С точки зрения различных областей знания данное понятие описывается своим специфическим набором признаков. Например, понятие «информация» является базовым в курсе информатики, и невозможно дать его определение через другие, более «простые» понятия (так же, в геометрии, например, невозможно выразить содержание базовых понятий «точка», «луч», «плоскость» через более простые понятия). Содержание основных, базовых понятий в любой науке должно быть пояснено на примерах или выявлено путём их сопоставления с содержанием других понятий. В случае с понятием «информация» проблема его определения ещё более сложная, так как оно является общенаучным понятием. Данное понятие используется в различных науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой науке понятие «информация» связано с различными системами понятий.

История понятия

Слово «информация» происходит от лат. informatio, что в переводе обозначает сведение, разъяснение, ознакомление. Понятие информации рассматривалось ещё античными философами.

До начала промышленной революции, определение сути информации оставалось прерогативой преимущественно философов. В XX веке вопросами теории информации стали заниматься кибернетика и информатика.

Классификация информации

Информацию можно разделить на виды по различным критериям:

по способу восприятия:

  • Визуальная — воспринимаемая органами зрения.
  • Аудиальная — воспринимаемая органами слуха.
  • Тактильная — воспринимаемая тактильными рецепторами.
  • Обонятельная — воспринимаемая обонятельными рецепторами.
  • Вкусовая — воспринимаемая вкусовыми рецепторами.

по форме представления:

  • Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка.
  • Числовая — в виде цифр и знаков, обозначающих математические действия.
  • Графическая — в виде изображений, предметов, графиков.
  • Звуковая — устная или в виде записи и передачи лексем языка аудиальным путём.
  • Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.
  • Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
  • Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.
  • Личная (приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.
  • Актуальная — информация, ценная в данный момент времени.
  • Достоверная — информация, полученная без искажений.
  • Понятная — информация, выраженная на языке, понятном тому, кому она предназначена.
  • Полная — информация, достаточная для принятия правильного решения или понимания.
  • Полезная — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

Значение термина в различных областях знания

Традиционализм субъективного постоянно доминировал в ранних философских определениях информации, как категории, понятия, свойства материального мира. Информация существует независимо от нашего сознания, и может иметь отражение в нашем восприятии только как результат взаимодействия: отражения, чтения, получения в виде сигнала, стимула. Информация нематериальна, как и все свойства материи. Информация стоит в ряду: материя, пространство, время, системность, функция, и др. что есть основополагающие понятия формализованного отражения объективной реальности в её распространении и изменчивости, разнообразии и проявленности. Информация — свойство материи и отражает её свойства (состояние или способность взаимодействия) и количество (мера) путём взаимодействия.

С материальной точки зрения информация — это порядок следования объектов материального мира. Например, порядок следования букв на листе бумаги по определенным правилам является письменной информацией. Порядок следования разноцветных точек на листе бумаги по определенным правилам является графической информацией. Порядок следования музыкальных нот является музыкальной информацией. Порядок следования генов в ДНК является наследственной информацией. Порядок следования битов в ЭВМ является компьютерной информацией и т. д. и т. п. Для осуществления информационного обмена требуется наличие необходимых и достаточных условий.

  1. Наличие не менее двух различных объектов материального или нематериального мира.
  2. Наличие у объектов общего свойства, позволяющего идентифицировать объекты в качестве носителя информации.
  3. Наличие у объектов специфического свойства, позволяющего различать объекты друг от друга.
  4. Наличие свойства пространства, позволяющее определить порядок следования объектов. Например, расположение письменной информации на бумаге — это специфическое свойство бумаги, позволяющее располагать буквы слева направо и сверху вниз.

Достаточное условие одно:

Наличие субъекта, способного распознавать информацию. Это человек и человеческое общество, общества животных, роботов и т. д.

Различные объекты (буквы, символы, картинки, звуки, слова, предложения, ноты и тп.) взятые по одному разу образуют базис информации. Информационное сообщение строится путем выбора из базиса копий объектов и расположение этих объектов в пространстве в определенном порядке. Длина информационного сообщения определяется как количество копий объектов базиса и всегда выражается целым числом. Необходимо различать длину информационного сообщения, которое всегда измеряется целым числом, и количество знаний, содержащегося в информационном сообщении, которое измеряется в неизвестной единице измерения.

С математической точки зрения информация — это последовательность целых чисел, которые записаны в вектор. Числа — это номер объекта в базисе информации. Вектор называется инвариантом информации, так как он не зависит от физической природы объектов базиса. Одно и то же информационное сообщение может быть выражено буквами, словами, предложениями, файлами, картинками, нотами, песнями, видеоклипами, любой комбинацией всех ранее названных. Чем бы мы ни выражали информацию — изменяется только базис, а не инвариант.

В информатике

Предметом изучения науки информатика являются именно данные: методы их создания, хранения, обработки и передачи. А сама информация, зафиксированная в данных, её содержательный смысл интересны пользователям информационных систем, являющимся специалистами различных наук и областей деятельности: медика интересует медицинская информация, геолога — геологическая, предпринимателя — коммерческая и т. п. (в том числе специалиста по информатике интересует информация по вопросам работы с данными).

Системология

Работа с информацией связана с преобразованиями и всегда подтверждает её материальную природу:

  • запись — формирование структуры материи и модуляции потоков путём взаимодействия инструмента с носителем;
  • хранение — стабильность структуры (квазистатика) и модуляции (квазидинамика);
  • чтение (изучение) — взаимодействие зонда (инструмента, преобразователя, детектора) с субстратом или потоком материи.

Системология рассматривает информацию через связь с другими основаниями: I=S/F[MvRvT], где: I — информация; S — системность мироздания; F — функциональная связь; M — материя; v — (v подчёркнутое) знак великого объединения (системности, единства оснований); R — пространство; T — Время.

Объекты материального мира находятся в состоянии непрерывного изменения, которое характеризуется обменом энергией объекта с окружающей средой. Изменение состояния одного объекта всегда приводит к изменению состояния некоторого другого объекта окружающей среды. Это явление вне зависимости от того, как, какие именно состояния и каких именно объектов изменились, может рассматриваться как передача сигнала от одного объекта другому. Изменение состояния объекта при передаче ему сигнала называется регистрацией сигнала.

Сигнал или последовательность сигналов образуют сообщение, которое может быть воспринято получателем в том или ином виде, а также в том или ином объёме. Информация в физике есть термин, качественно обобщающий понятия «сигнал» и «сообщение». Если сигналы и сообщения можно исчислять количественно, то можно сказать, что сигналы и сообщения являются единицами измерения объёма информации.

Читайте также:  Какое должно быть зрение для водительской комиссии

Одно и то же сообщение (сигнал) разными системами интерпретируется по-своему. Например, последовательно длинный и два коротких звуковых (а тем более в символьном кодировании -..) сигнала в терминологии азбуки Морзе — это буква Д (или D), в терминологии БИОС от фирмы AWARD — неисправность видеокарты.

В математике

В математике теория информации (математическая теория связи) — раздел прикладной математики, определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. Основные разделы теории информации — кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Математика является больше чем научной дисциплиной. Она создает единый язык всей Науки.

Предметом исследований математики являются абстрактные объекты: число, функция, вектор, множество, и другие. При этом большинство из них вводится акcиоматически (аксиома), то есть без всякой связи с другими понятиями и без какого-либо определения.

Информация не входит в число предметов исследования математики. Тем не менее, слово «информация» употребляется в математических терминах — собственная информация и взаимная информация, относящихся к абстрактной (математической) части теории информации. Однако, в математической теории понятие «информация» связано с исключительно абстрактными объектами — случайными величинами, в то время как в современной теории информации это понятие рассматривается значительно шире — как свойство материальных объектов.

Связь между этими двумя одинаковыми терминами несомненна. Именно математический аппарат случайных чисел использовал автор теории информации Клод Шеннон. Сам он подразумевает под термином «информация» нечто фундаментальное (нередуцируемое). В теории Шеннона интуитивно полагается, что информация имеет содержание. Информация уменьшает общую неопределённость и информационную энтропию. Количество информации доступно измерению. Однако он предостерегает исследователей от механического переноса понятий из его теории в другие области науки.

«Поиск путей применения теории информации в других областях науки не сводится к тривиальному переносу терминов из одной области науки в другую. Этот поиск осуществляется в длительном процессе выдвижения новых гипотез и их экспериментальной проверке.» К. Шеннон.

В юриспруденции

Правовое определение понятия «информация» дано в федеральном законе от 27 июля 2006 года № 149-ФЗ «Об информации, информационных технологиях и о защите информации» (Статья 2): «информация — сведения (сообщения, данные) независимо от формы их представления».

Федеральный закон № 149-ФЗ определяет и закрепляет права на защиту информации и информационную безопасность граждан и организаций в ЭВМ и в информационных системах, а также вопросы информационной безопасности граждан, организаций, общества и государства.

В теории управления

В теории управления (кибернетике), предметом исследования которой являются основные законы управления, то есть развития систем управления, информацией называются сообщения, получаемые системой из внешнего мира при адаптивном управлении (приспособлении, самосохранении системы управления).

Основоположник кибернетики Норберт Винер говорил об информации так:

Н. Винер Кибернетика, или управление и связь в животном и машине; или Кибернетика и общество

Эта мысль Винера дает прямое указание на объективность информации, то есть её существование в природе независимо от сознания (восприятия) человека.

Объективную информацию современная кибернетика определяет как объективное свойство материальных объектов и явлений порождать многообразие состояний, которые посредством фундаментальных взаимодействий материи передаются от одного объекта (процесса) другому, и запечатлеваются в его структуре.

Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы. В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный код, или код источника. Таким образом, каждая материальная система является источником информации.

Субъективную (семантическую) информацию кибернетика определяет как смысл или содержание сообщения. (см. там же) Информация — это характеристика объекта.

Дезинформация

Дезинформацией (также дезинформированием) называется один из способов манипулирования информацией, как то введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не нужной информации, или полной, но не в нужной области, искажения контекста, искажения части информации.

Цель такого воздействия всегда одна — оппонент должен поступить так, как это необходимо манипулятору. Поступок объекта, против которого направлена дезинформация, может заключаться в принятии нужного манипулятору решения или в отказе от принятия невыгодного для манипулятора решения. Но в любом случае конечная цель — это действие, которое будет предпринято.

Copyright © Галеон сайт багетной мастерской
г. Москва, Проспект Мира 102, стр. 34
метро » Алексеевская», «Рижская»

Понятие информации, данных, знаний

Понятие «информация» достаточно широко используется в обычной жизни современного человека, поэтому каждый имеет интуитивное представление, что это такое. Но когда наука начинает применять общеизвестные понятия, она уточняет их, приспосабливая к своим целям, ограничивает использование термина строгими рамками его применения в конкретной научной области.

Деятельность людей связана с переработкой и использованием материалов, энергии и информации. Соответственно развивались научные и технические дисциплины, отражающие вопросы материаловедения, энергетики и информатики. Значение информации в жизни общества стремительно растет, меняются методы работы с информацией, расширяются сферы применения новых информационных технологий. Сложность явления информации, его многоплановость, широта сферы применения и быстрое развитие отражается в постоянном появлении новых толкований понятий информатики и информации.

Существует множество определений и взглядов на понятие «информация» 1. Так, например, наиболее общее философское определение звучит следующим образом: «Информация есть отражение реального мира. Информация — отраженное разнообразие, то есть нарушение однообразия. Информация является одним из основных универсальных свойств материи.» [Информатика. Энциклопедический словарь для начинающих. Под ред. Д.А.Поспелова — Москва.: Педагогика-Пресс, 1994]. В узком, практическом толковании определение понятия «информация» представляется так: «Информация есть все сведения, являющееся объектом хранения, передачи и преобразования» [Я.Л.Шрайберг , М.В.Гончаров — Справочное руководство по основам информатики и вычислительной техники -М осква: Финансы и статистика, 1995].

У подавляющего большинства авторов свое понимание информации, иногда в чем-то пересекающееся, но нередко совсем несовпадающее. Все разнообразие взглядов на информацию более или менее четко укладывается в две ведущие модели, одна из которых трактует информацию как неотъемлемое свойство материи, ее атрибут («атрибутивная концепция»), а другая — как неотъемлемый элемент самоуправляемых (технических, биологических, социальных) систем, как функцию этих систем («функционально-кибернетическая концепция»).

Рассмотрим некоторые из основных существующих точек зрения на понятие «информация».

Так, согласно определениям, приведенным в толковых словарях, термин «информация» означает следующее:

• Информация ( Information )- содержание сообщения или сигнала; сведения, рассматриваемые в процессе их передачи или восприятия, позволяющие расширить знания об интересующем объекте [Терминологический словарь по основам информатики и вычислительной техники. Под ред. А.П.Ершова, Н.М.Шанского.­М осква .: Просвещение, 1991.-159 с.].

• Информация — является одной из фундаментальных сущностей окружающего нас мира (академик Поспелов).

• Информация — первоначально — сведения, передаваемые одними людьми другим людям устным, письменным или каким-нибудь другим способом (Большая Советская Энциклопедия. Москва.: Советская энциклопедия. 1980.-1600 с.).

В самом общем смысле информация есть обозначение некоторой формы связей или зависимостей объектов, явлений, мыслительных процессов. Информация есть понятие, абстракция, относящееся к определенному классу закономерностей материального мира и его отражения в человеческом сознании. В зависимости от области, в которой ведется исследование, и от класса задач, для которых вводится понятие информации, исследователи подбирают для него различные определения.

А втор теории информации 2 К.Шеннон (1916) определил понятие информации как коммуникацию, связь, в процессе которой устраняется неопределенность. Шеннон предложил в к. 40-х годов единицу измерения информации — бит. Каждому сигналу в теории приписывалась априорная вероятность его появления. Чем меньше вероятность появления того или иного сигнала, тем больше информации он несет для потребителя (т.е. чем неожиданнее новость, тем больше ее информативность). Формула информации Шеннона имеет вид:

Знак минус поставлен для того, чтобы значение информации было положительным, поскольку вероятности всегда меньше или равны 1. Формула показывает зависимость количества информации от числа событий и от вероятности совершения этих событий. Информация равна нулю, когда возможно только одно событие. С ростом числа событий она увеличивается и достигает максимального значения, когда события равновероятны. При таком понимании информация — это результат выбора из набора возможных альтернатив. Однако математическая теория информации не охватывает все богатство содержания информации, поскольку она не учитывает содержательную сторону сообщения.

Дальнейшее развитие математического подхода к понятию «информация» отмечается в работах логиков (Р.Карнап, И.Бар-Хиллел ) и математиков (А.Н.Колмогоров). В этих теориях понятие информации не связано ни с формой, ни с содержанием сообщений, передаваемых по каналу связи. Понятие «информация» в данном случае определяется как абстрактная величина, не существующая в физической реальности, подобно тому, как не существует мнимое число или не имеющая линейных размеров точка.

С кибернетической точки зрения информация (информационные процессы) есть во всех самоуправляемых системах (технических, биологических, социальных). При этом одна часть кибернетиков определяет информацию как содержание сигнала, сообщения, полученного кибернетической системой из внешнего мира. Здесь сигнал отождествляется с информацией, они рассматриваются как синонимы. Другая часть кибернетиков трактуют информацию как меру сложности структур, меру организации. Вот как определяет понятие «информация» американский ученый Б.Винер, сформулировавший основные направления кибернетики, автор трудов по математическому анализу, теории вероятностей, электрическим сетям и вычислительной техники: информация — это обозначение содержания, полученного из внешнего мира.

В физике информация выступает в качестве меры разнообразия. Чем выше упорядоченность (организованность) системы. о бъекта, тем больше в ней содержится «связанной» информации. Отсюда делается вывод, что информация — фундаментальная естественнонаучная категория, находящаяся рядом с такими категориями как «вещество» и «энергия», что она является неотъемлемым свойством материи и потому существовала и будет существовать вечно. Так, например, французский физик Л. Бриллюэн (1889-1969), основоположник зонной теории твердых тел, автор трудов по квантовой механике, магнетизму, радиофизики, философии естествознания, теории информации определяет информацию как отрицание энтропии (энтропия — мера неопределенности, учитывающая вероятность появления и информативность тех или иных сообщений).

С 50-60-х годов терминология теории информации стала применяться и в физиологии (Д.Адам). Была обнаружена близкая аналогия между управлением и связью в живом организме и в информационно-технических устройствах. В результате введения понятия «сенсорная информация» (т.е. оптические, акустические, вкусовые, тепловые и прочие сигналы, поступающие к организму извне или вырабатываемые внутри его, которые преобразуются в импульсы электрической или химической природы, передающиеся по нейронным цепям в центральную нервную систему и от нее — к соответствующим эффекторам) появились новые возможности для описания и объяснения физиологических процессов раздражимости, чувствительности, восприятия окружающей среды органами чувств и функционирования нервной системы.

В рамках генетики было сформулировано понятие генетической информации — как программа (код) биосинтеза белков, материально представленных полимерными цепочками ДНК. Генетическая информация заключена преимущественно в хромосомах, где она зашифрована в определенной последовательности нуклеидов в молекулах ДНК. Реализуется эта информация в ходе развития особи (оптогинеза ).

Таким образом, систематизируя вышеизложенное, можно сделать вывод, что для инженеров, биологов, генетиков, психологов понятие «информации» отождествляется с теми сигналами, импульсами, кодами, которые наблюдаются в технических и биологических системах. Радиотехники, телемеханики, программисты понимают под информацией рабочее тело, которое можно обрабатывать, транспортировать, так же как электричество в электротехнике или жидкость в гидравлике. Это рабочее тело состоит из упорядоченных дискретных или непрерывных сигналов, с которыми и имеет дело информационная техника.

С правовой точки зрения информация определяется как «некоторая совокупность различных сообщений о событиях, происходящих в правовой системе общества, ее подсистемах и элементах и во внешней по отношению к данным правовым информационным образования среде, об изменениях характеристик информационных образований и внешней среды, или как меру организации социально-экономических, политических, правовых, пространственных и временных факторов объекта. Она устраняет в правовых информационных образованиях, явлениях и процессах неопределенность и обычно связана с новыми, ранее неизвестными нам явлениями и фактами» [Правовая информатика и управление в сфере предпринимательства. М.М. Рассолов, В.Д.Элькин , И.М.Рассолов. Москва.:1998].

Экономисты рассматривают информацию как сведения в сфере экономики, которые необходимо фиксировать, передавать, хранить и обрабатывать для использования в управлении как хозяйством страны в целом, так и отдельными его объектами. Информация позволяет получить решение, как эффективнее и экономически выгоднее организовать производство товаров и услуг.

Читайте также:  Обсудите проблему возможности клонирования животных с хозяйственной точкой зрения

Экономическая информация в основном дискретна и состоит из отдельных сообщений, т.е. комплексов значений, характеризующих конкретные факты, предметы, явления, хозяйственные операции и т.п. Каждое сообщение может быть представлено в виде чередования импульсов, букв, цифр или других символов.

Таким образом, информация с экономической точки зрения — это стратегический ресурс, один из основных ресурсов роста производительности предприятия. Информация — основа маневра предпринимателя с веществом и энергией, поскольку именно информация позволяет устанавливать стратегические цели и задачи предприятия и использовать открывающиеся возможности; принимать обоснованные и своевременные управленческие решения; координировать действия различных подразделений, направляя их усилия на достижение общих поставленных целей. Например, маркетологи Р.Д.Базел , Д.Ф.Кокс, Р.В.Браун определяют понятие «информация» следующим образом: «информация состоит из всех объективных фактов и всех предположений, которые влияют на восприятие человеком, принимающим решение, сущности и степени неопределенностей, связанных с данной проблемой или возможностью (в процессе управления). Все, что потенциально позволит снизить степень неопределенности, будь то факты, оценки, прогнозы, обобщенные связи или слухи, должно считаться информацией».

В менеджменте под информацией понимаются сведения об объекте управления, явлениях внешней среды, их параметрах, свойствах и состоянии на конкретный момент времени. Информация является предметом управленческого труда, средством обоснования управленческих решений, без которых процесс воздействия управляющей подсистемы на управляемую и их взаимодействие невозможен. В этом смысле информация выступает основополагающей базой процесса управления.

Значение информации для бизнеса определили Д.И.Блюменау и А.В.Соколов: «информация — это продукт научного познания, средство изучения реальной действительности в рамках, допустимых методологией одного из информационных подходов к исследованию объектов различной природы (биологических, технических, социальных). Подход предполагает описание и рассмотрение этих объектов в виде системы, включающей в себя источник, канал и приемник управляющих воздействий, допускающих их содержательную интерпретацию». Если попытаться объединить предложенные подходы, то получится следующее [Информационные системы в экономике. А.В.Хорошилов и др. Москва.: МЭСИ. — 1998]:

• данные, определенным образом организованные, имеющие смысл, значение и ценность для своего потребителя и необходимая для принятия им решений, а также для реализации других функций и действий;

• совокупность знаний о фактических данных и зависимостях между ними, являющихся одним из видов ресурсов, используемых человеком в трудовой деятельности и быту;

• сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы представления;

• сведения, неизвестные до их получения;

• значение, приписанное данным;

• Средство и Форма передачи знаний и опыта, сокращающая неопределенность и случайность и неосведомленность;

• обобщенный термин, относящийся к любым сигналам, звукам, знакам и т.д., которые могут передаваться, приниматься, записываться и/или храниться.

Приведенные выше определения понятия «информация» показывают, что понятия «знание», «информация», «данные» часто отождествляются. Однако, эти понятия необходимо различать [Хорошилов , Карминский , Романов, Майоров].

Подходы к трактовке понятия «информация» уже были рассмотрены выше. Теперь остановимся на рассмотрении таких понятий как «данные» и «знания».

Вот как определяет понятие «данные» С.В. Симонович: «Мы живем в материальном мире. Все, что нас окружает и с чем мы сталкиваемся относится либо к физическим телам, либо к физическим полям. Все объекты находятся в состоянии непрерывного движения и изменения, которое сопровождается обменом энергией и ее переходом из одной формы в другую. Все виды энергообмена сопровождаются появлением сигналов. При взаимодействии сигналов с физическими телами в последних возникают определенные изменения свойств — это явление называется регистрацией сигналов. Такие изменения можно наблюдать, измерять или фиксировать иными способами — при этом возникают и регистрируются новые сигналы, т.е. образуются данные» [Информатика. Базовый курс. Учебник для вузов / Симонович С.В. и др. – СПб.: Издательство Питер, 1999. – 640 с.].

Известны также следующие трактовки понятия «данные». Данные это:

• факты, цифры, и другие сведения о реальных и абстрактных лицах, предметах, объектах, явлениях и событиях, соответствующих определенной предметной области 3, представленные в цифровом, символьном, графическом, звуковом и любом другом формате;

• информация, представленная в виде, пригодном для ее передачи и обработки автоматическими средствами, при возможном участии автоматизированными средствами с человеком;

• фактический материал, представленный в виде информации, чисел, символов или букв, используемый для описания личностей, объектов, ситуаций или других понятий с целью последующего анализа, обсуждения или принятия соответствующих решений.

Из всего многообразия подходов к определению понятия «данные» на наш взгляд справедливо то, которое говорит о том, что данные несут в себе информацию о событиях, произошедших в материальном мире, поскольку они являются регистрацией сигналов, возникших в результате этих событий. Однако данные не тождественны информации. [Информатика. Базовый курс. Учебник для вузов / Симонович С.В. и др. – СПб.: Издательство Питер, 1999. – 640 с.]. Станут ли данные информацией, зависит от того, известен ли метод преобразования данных в известные понятия. То есть, чтобы извлечь из данных информацию необходимо подобрать соответствующий форме данных адекватный метод получения информации. Данные, составляющие информацию, имеют свойства, однозначно определяющие адекватный метод получения этой информации. Причем необходимо учитывать тот факт, что информация не является статичным объектом — она динамически меняется и существует только в момент взаимодействия данных и методов. Все прочее время она пребывает в состоянии данных. Информация существует только в момент протекания информационного процесса. Все остальное время она содержится в виде данных.

Одни и те же данные могут в момент потребления представлять разную информацию в зависимости от степени адекватности взаимодействующих с ними методов.

П о своей природе данные являются объективными, так как это результат регистрации объективно существующих сигналах, вызванных изменениями в материальных телах или полях. Методы являются субъективными. В основе искусственных методов лежат алгоритмы (упорядоченные последовательности команд), составленные и подготовленные людьми (субъектами). В основе естественных методов лежат биологические свойства субъектов информационного процесса. Таким образом, информация возникает и существует в момент диалектического взаимодействия объективных данных и субъективных методов.

Переходя к рассмотрению подходов к определению понятия «знания» можно выделить следующие трактовки. Знания — это:

• вид информации, отражающей знания, опыт и восприятие человека -с пециалиста (эксперта) в определенной предметной области;

• множество всех текущих ситуаций в объектах данного типа и способы перехода от одного описания объекта к другому;

• осознание и толкование определенной информации, с учетом путей наилучшего ее использования для достижения конкретных целей, характеристиками знаний являются: внутренняя интерпретируемость, структурируемость , связанность и активность. Согласно [Информационные системы в экономике. А.В. Хорошилов и др. Москва.: МЭСИ, 1998], “знания есть факты плюс убеждения плюс правила”.

Основываясь на приведенных выше трактовках рассматриваемых понятий, можно констатировать тот факт, что знание — это информация, но не всякая информация — знание. Информация выступает как знания, отчужденные от его носителей и обобществленные для всеобщего пользования. Другими словами, информация — это превращенная форма знаний, обеспечивающая их распространение и социальное функционирование. Получая информацию, пользователь превращает ее путем интеллектуального усвоения в свои личностные знания. Здесь мы имеем дело с так называемыми информационно-когнитивными процессами, связанными с представлением личностных знаний в виде информации и воссозданием этих знаний на основе информации.

В превращении информации в знание участвует целый ряд закономерностей, регулирующих деятельность мозга, и различных психических процессов, а также разнообразных правил, включающих знание системы общественных связей, — культурный контекст определенной эпохи. Благодаря этому знание становится достоянием общества, а не только отдельных индивидов. Между информацией и знаниями имеется разрыв. Человек должен творчески перерабатывать информацию, чтобы получить новые знания.

Таким образом, учитывая вышеизложенное, можно сделать вывод, что фиксируемые воспринимаемые факты окружающего мира представляют собой данные. При использовании данных в процессе решения конкретных задач — появляется информация. Результаты решения задач, истинная, проверенная информация (сведения), обобщенная в виде законов, теорий, совокупностей взглядов и представлений представляет собой знания [Романов, Майоров]. Необходимо также отметить, что понятие «информация», становясь предметом изучения многих наук, в каждой из них конкретизируется и обогащается. Понятие «информация» является одним из основных в современной науке и поэтому не может быть строго определено через б олее простые понятия. Можно лишь, обращаясь к различным аспектам этого понятия, пояснять, иллюстрировать его смысл [Заварыкин В.М. и др. Основы информатики и вычислительной техники: Учеб. п особие для студентов пед . ин-тов по физ.-мат. спец.- М.: Просвещение, 1989.-207 с.].

Понятие информации

Базовым понятием всех информационных технологий является информация . Любая деятельность человека представляет собой процесс сбора и переработки информации, принятия на ее основе решений и их выполнения. С появлением современных средств вычислительной техники информация стала выступать в качестве одного из важнейших ресурсов научно-технического прогресса.

Общение, коммуникации, обмен информацией присущи всем живым существам, но в особой степени — человеку. Будучи аккумулированной и обработанной с определенных позиций, информация дает новые сведения, приводит к новому знанию.

Определение информации и ее свойства

Любая деятельность человека представляет собой процесс сбора и переработки информации, принятия на ее основе решений и их выполнения. С появлением современных средств вычислительной техники информация стала выступать в качестве одного из важнейших ресурсов научно-технического прогресса. По современным представлениям информация является одной из исходных категорий мироздания наряду с материей и энергией. Эти категории тесно взаимосвязаны между собой. Эти связи можно усмотреть и в природе и процессах, порожденных человеком. Прогресс человечества неизбежно влечет увеличение общего объема информации, которым оно располагает, причем объем этот растет гораздо быстрее, чем население земного шара и его материальные потребности.

Информация содержится в человеческой речи, текстах книг, журналов, газет, сообщениях радио и телевидения, показаниях приборов и т.д. Человек воспринимает информацию с помощью органов чувств. Хранит и перерабатывает ее с помощью мозга и центральной нервной системы. Передаваемая информация обычно касается каких-то предметов или нас самих и связана с событиями, происходящими в окружающем нас мире.

Слово “информация” происходит от латинского слова informatio, что в переводе обозначает сведение, разъяснение, ознакомление. Понятие информации рассматривалось ещё античными философами. До начала промышленной революции, определение сути информации оставалось прерогативой преимущественно философов [5; с. 32]. Затем, понятие информации стало активно использоваться в технических и гуманитарных науках. В середине ХХ века рассматривать вопросы теории информации стали новые на то время науки: теория передачи информации и кибернетика.

Первоначально смысл слова “информация” трактовался как нечто присущее только человеческому сознанию и общению — знания, сведения, известия. Затем смысл этого слова начал расширяться и обобщаться. Так, с позиций материалистической теории познания одним из всеобщих свойств материи (наряду с движением, развитием, пространством, временем и др.) было признано отражение, заключающееся в способности адекватно отображать одним реальным объектом другие реальные объекты, а сам факт отражения одного объекта в другом и означает присутствие в нем информации об отражаемом объекте. Таким образом, как только состояния одного объекта находятся в соответствии с состояниями другого объекта (например, соответствие между положением стрелки вольтметра и напряжением на его клеммах или соответствие между нашим ощущением и реальностью), это значит, что один объект отражает другой, т. е. содержит информацию о другом [3; с. 42].

Особенностью понятия “информация” является его универсальность — оно используется во всех без исключения сферах человеческой деятельности: в философии, естественных и гуманитарных науках, в биологии, медицине, в психологии человека и животных, в социологии, искусстве, в технике и экономике и, конечно, в повседневной жизни.

В настоящее время среди людей не существует единого определения термина информация, так как каждый понимает ее чисто интуитивно, не имея представления о ее научном определении. С точки зрения различных прикладных областей деятельности, данное понятие описывается своим специфическим набором признаков, конкретизированных для частного применения.

В информатике широко используется такое определение: “информация — сведения, передаваемые источником получателю (приёмнику)” [7; с. 27]. Информация всегда связана с материальным носителем, с материальными процессами и имеет некоторое представление (форму). Информация, представленная в какой-либо законченной (системной) форме и передаваемая из одного места в другое, называется сообщением . Сообщения представляются в виде сигналов и данных. Сигналы используются для передачи информации в пространстве между источником и получателем, а данные — для хранения (то есть для передачи во времени).

Читайте также:  Ребенок инвалид по зрению права и льготы

Рассмотрим ряд понятий, связанных с информацией. Информация — категория нематериальная и атрибутивная, то есть она является неотъемлемым свойством какого либо материального объекта или процесса. следовательно, она должна быть связана с какой основой, сущностью, одним из свойством которого она является. Без этого она просто не сможет существовать. При этом хранение информации связано с фиксацией состояния носителя (например, уже напечатанный текст на бумаге), а распространение информации — с процессом, который протекает в среде-носителе. Сообщение и сигналы, таким образом, служат переносчиком информации, а информация является содержанием сообщения.

Понятие “информация” предполагает наличие двух объектов — источника и приемника информации. Информация передается от источника к приемнику в материально-энергетической форме, в форме сигналов, распространяющихся в определенной среде. Источник информации – это субъект или объект, порождающий информацию и представляющий ее в виде сообщения. Получатель информации — это субъект или объект, принимающий сообщение. Совокупность технических средств, используемых для передачи сообщений от источника к получателю, называется системой связи. Канал связи — совокупность технических устройств или физическая среда, обеспечивающие передачу сигнала от передатчика к приемнику. Кодирующее устройство предназначено для преобразования информации исходного сообщения от источника к виду, необходимому для передачи информации). Декодирующее устройство предназначено для преобразования полученного сообщения в исходное, пригодное для его последующей обработки [3; с. 48].

Рис. 1. Процесс передачи информации

Данные — это и текст книги или письма, и картина художника, и ДНК. Данные, являющиеся результатом фиксации некоторой информации, сами могут выступать как источник информации. Информация, извлекаемая из данных, может подвергаться обработке, и результаты обработки фиксируются в виде новых данных. Общая схема взаимоотношений между понятиями “информация” и “данные” в информационных системах может выглядеть следующим образом:
процессы внешнего мира → I1 →D1 → I2 → D2 → I3 → …

Характерными чертами информации являются следующие:

1) это наиболее важный ресурс современного производства: он снижает потребность в земле, труде, капитале, уменьшает расход сырья и энергии. Так, например, обладая умением архивировать свои файлы (т.е. имея такую информацию), можно не тратиться на покупку новых дисков;

2) информация вызывает к жизни новые производства. Например, изобретение лазерного луча явилось причиной возникновения и развития производства лазерных (оптических) дисков;

3) информация является товаром, причем продавец информации не теряет семантическую информацию (объем данных, сведений, знаний) после продажи, но лишь прагматическую меру (цену) информации (к примеру, монополию на «ноу-хау»). Так, если студент сообщит своему товарищу сведения о расписании занятий в течение семестра (семантическую информацию), он эти данные не потеряет для себя; если человек разгласит пин-код своей банковской карточки или какой-либо секрет (прагматическую информацию), то он может потерять деньги или стоимость секрета.

4) информация придает дополнительную ценность другим ресурсам, в частности, трудовым. Действительно, работник с высшим образованием ценится больше, чем со средним [2; с. 37].

Качество информации является одним из важнейших параметров для потребителя информации. Оно определяется следующими характеристиками:

— репрезентативность — правильность отбора информации в целях адекватного отражения источника информации;

— содержательность — семантическая емкость информации. Рассчитывается как отношение количества семантической информации к ее количеству в статистической мере;

— достаточность (полнота) — минимальный, но достаточный состав данных для достижения целей, которые преследует потребитель информации;

— доступность — простота (или возможность) выполнения процедур получения и преобразования информации;

— актуальность — зависит от динамики изменения характеристик информации и определяется сохранением ценности информации для пользователя в момент ее использования;

— своевременность — поступление не позже заранее назначенного срока;

— точность — степень близости информации к реальному состоянию источника информации;

— достоверность — свойство информации отражать источник информации с необходимой точностью;

— устойчивость — способность информации реагировать на изменения исходных данных без нарушения необходимой точности [7; с. 31].

— прагматичность — выгодность информации, ее полезность.

Информацию нельзя считать лишь техническим термином, это фундаментальная философская категория, которой присущи такие свойства как запоминаемость, передаваемость, преобразуемость, воспроизводимость, стираемость. Можно дать следующее определение:

Без информации не может существовать не только жизнь в любой форме и не могут функционировать созданные человеком любые информационные системы, но и физический мир вообще. Любой физический (механический) процесс идет только потому, что любой физический процесс есть процесс обмена, взаимодействия материальных объектов, в котором каждый участник физического процесса получает информацию о другом участнике процесса через физические воздействия (силы, импульсы, волны и пр.) и изменяет свои параметры точно в соотвествии с данными силами, их конфигурацией. Это есть основной физический закон — закон причинности физического мира.

Общение, коммуникации, обмен информацией присущи всем живым существам, но в особой степени — человеку. Будучи аккумулированной и обработанной с определенных позиций, информация дает новые сведения, приводит к новому знанию. Получение информации из окружающего мира, ее анализ и генерирование составляют одну из основных функций человека, других живых организмов и автоматных информационно-технических систем, отличающую их от остального косного (неживого) мира.

Распространенным заблуждением является мнение о том, что информация присуща лишь людям и их творениям (технике), живому миру. На самом деле информация есть обязательный атрибут физического мира, начиная от элементарных частиц и молекул, что ясно показал классик физики Людвиг Больцман, объяснив сущность энтропии и дав ее статистическую меру (см. комментарии К.А. Хайдарова в теме «Информация в неживой природе».

Классификация информации

1. Информация подразделяется по форме представления на 2 вида:

— дискретная форма представления информации — это последовательность символов, характеризующая прерывистую, изменяющуюся величину (количество дорожно-транспортных происшествий, количество тяжких преступлений и т.п.);

— аналоговая или непрерывная форма представления информации — это величина, характеризующая процесс, не имеющий перерывов или промежутков (температура тела человека, скорость автомобиля на определенном участке пути и т.п.).

2. По области возникновения выделяют информацию:

— элементарную (механическую), которая отражает процессы, явления неодушевленной природы;

— биологическую, которая отражает процессы животного и растительного мира;

— социальную, которая отражает процессы человеческого общества.

3. По способу передачи и восприятия различают следующие виды информации:

— визуальную, передаваемую видимыми образами и символами;

— аудиальную, передаваемую звуками;

— тактильную, передаваемую ощущениями;

— органолептическую, передаваемую запахами и вкусами;

— машинную, выдаваемую и воспринимаемую средствами вычислительной техники [4; с. 52].

4. Информацию, создаваемую и используемую человеком, по общественному назначению можно разбить на три вида:

— личную, предназначенную для конкретного человека;

— массовую, предназначенную для любого желающего ее пользоваться (общественно-политическая, научно-популярная и т.д.);

— специальную, предназначенную для использования узким кругом лиц, занимающихся решением сложных специальных задач в области науки, техники, экономики.

Иерархические уровни информационных сред (медиа)

По способам кодирования, представления, можно выделить следующие иерархически упорядоченные информационные среды (медиа):

Иерархические уровни информации

Информация не является простым и «плоским» явлением, каким его представляют многие. Она имеет иерархическую, многоуровневую структуру.

Сегодня видятся такие, возрастающие по сложности, и вытекающие один из другого ее уровни.

Единицы измерения информации

Единицы измерения информации служат для измерения объёма информации — величины, исчисляемой логарифмически. Это означает, что когда несколько объектов рассматриваются как один, количество возможных состояний перемножается, а количество информации — складывается. Чаще всего измерение информации касается объёма компьютерной памяти и объёма данных, передаваемых по цифровым каналам связи. Объёмы информации можно представлять как логарифм количества состояний. Наименьшее целое число, логарифм которого положителен — 2. Соответствующая ему единица — бит — является основой исчисления информации в цифровой технике.

Единица, соответствующая числу 3 (трит), равна log23 = 1,585 бита, числу 10 (хартли) — log210 = 3,322 бита. Такая единица как нит (nit), соответствующая натуральному логарифму применяется в вычислительной технике в инженерных и научных расчётах. Основание натуральных логарифмов не является целым числом.

Целые количества бит отвечают количеству состояний, равному степеням двойки. Особое название имеет 4 бита — ниббл (полубайт, тетрада, четыре двоичных разряда), которые вмещают в себя количество информации, содержащейся в одной шестнадцатеричной цифре. Следующей по порядку популярной единицей информации является 8 бит, или байт. Именно к байту (а не к биту) непосредственно приводятся все большие объёмы информации, исчисляемые в компьютерных технологиях.

Такие величины как машинное слово и т.п., составляющие несколько байт, в качестве единиц измерения почти никогда не используются.

Для измерения больших количеств байтов служат единицы “килобайт” = 1000 байт и “Кбайт” = 2 10 байт. Единицы “мегабайт” = 1.000 килобайт = 1.000.000 байт, применяются для измерения объёмов носителей информации. Единицы “гигабайт” = 1000 мегабайт = 1.000.000.000 байт и “Гбайт” = 2 30 байт, Мбайт = 2 20 байт измеряют объём больших носителей информации, например жёстких дисков. Разница между двоичной и десятичной единицами уже превышает 7 %. Размер 32-битного адресного пространства равен 4 Гбайт ≈ 4.295 Мегабайт. Такой же порядок имеют размер DVD-ROM и современных носителей на флеш-памяти. Размеры жёстких дисков уже достигают сотен и тысяч гигабайт. Для исчисления ещё больших объёмов информации имеются единицы терабайт — тебибайт (10 12 байт и 2 40 соответственно), петабайт — пебибайт (10 15 и 2 50 байт соответственно) и т.д. [1; с. 115].

Для конкретного компьютера как минимальный шаг адресации памяти определяется термин «слово» (word), который на старых машинах не обязательно был равен 8 двоичным разрядам, но часто полубайту, то есть 4 двоичным разрядам, а на более поздних модификациях — 16, 32, 64 двоичных разряда, то есть двум, четырем и 8 байтам. В таких обозначениях как байт (русское) или B (английское) под байт (B) подразумевается 8 двоичных разрядов, а не 8 бит, как пишут в некоторых учебниках. Дело в том, что бит — это единица статичтической меры информации, равная H = log2(p1)+log2(p2)=1, при p1=0,5 и p2=0,5 в двуальтернативном эксперименте, то есть для двоичной ячейки памяти (данные) и двоичных логических элементов (сигнал). Для ячеек памяти машин (устройств хранения данных) и логических элементов (обработчиков сигналов) вероятности при определении комбинаторной информации никак не регламентируются.

В случае определения объема памяти двоичных систем удобнее применять степени двойки, то есть 1024 байта =1Кбайт, нежели 1000 байт = 1 килобайту. Во избежание недоразумений следует чётко понимать различие между: двоичными кратными единицами, обозначаемыми согласно ГОСТ 8.417-2002 как “Кбайт”, “Мбайт”, “Гбайт” и т.д. (два в степенях кратных десяти); единицами килобайт, мегабайт, гигабайт и т.д., понимаемыми как научные термины (кратных десятичной тысяче). Последние по определению равны соответственно 10 3 , 10 6 , 10 9 байт. В качестве терминов для “Кбайт”, “Мбайт”, “Гбайт” и т.д. МЭК предлагает “кибибайт”, “мебибайт”, “гибибайт” и т. д., однако эти термины критикуются за непроизносимость и не встречаются в устной речи.

В различных областях информатики предпочтения в употреблении десятичных и двоичных единиц тоже различны. Причём, хотя со времени стандартизации терминологии и обозначений прошло уже несколько лет, далеко не везде стремятся прояснить точное значение используемых единиц. В английском языке для “киби”=1024 иногда используют прописную букву K, дабы подчеркнуть отличие от обозначаемой строчной буквой приставки СИ кило. Однако, такое обозначение не опирается на авторитетный стандарт, в отличие от российского ГОСТа касательно “Кбайт”.

Заключение

В связи со сложностью самого понятия информации в настоящее время не принято единого определения термина «информация». С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков. В информатике широко используется такое определение: информация — сведения, передаваемые источником получателю (приёмнику). Без информации не может существовать жизнь в любой форме, и не могут функционировать созданные человеком любые информационные системы.

Свойства информации можно рассматривать в трех аспектах: техническом — это точность, надежность, скорость передачи сигналов и т.д.; семантическом — это передача смысла текста с помощью кодов и прагматическом — это насколько эффективно информация влияет на поведение объекта.

Единицы измерения информации служат для измерения объёма информации — величины, исчисляемой логарифмически. Соответствующая ему единица — бит — является основой исчисления информации в цифровой технике.

Чаще всего измерение информации касается объёма компьютерной памяти и объёма данных, передаваемых по цифровым каналам связи. Объёмы информации можно представлять как логарифм количества состояний. Наименьшее целое число, логарифм которого положителен есть два.

Источники:
  • http://www.baget1.ru/information/information.php
  • http://www.market-pages.ru/infteh/2.html
  • http://bourabai.ru/tpoi/inform/definition.htm