Меню Рубрики

Определение информации с точки зрения разных наук

Информация (от лат. informatio, разъяснение, изложение, осведомлённость) — сведения о чём-либо, независимо от формы их представления.

В настоящее время не существует единого определения информации как научного термина. С точки зрения различных областей знания данное понятие описывается своим специфическим набором признаков. Например, понятие «информация» является базовым в курсе информатики, и невозможно дать его определение через другие, более «простые» понятия (так же, в геометрии, например, невозможно выразить содержание базовых понятий «точка», «луч», «плоскость» через более простые понятия). Содержание основных, базовых понятий в любой науке должно быть пояснено на примерах или выявлено путём их сопоставления с содержанием других понятий. В случае с понятием «информация» проблема его определения ещё более сложная, так как оно является общенаучным понятием. Данное понятие используется в различных науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой науке понятие «информация» связано с различными системами понятий.

Слово «информация» происходит от лат. informatio, что в переводе обозначает сведение, разъяснение, ознакомление. Понятие информации рассматривалось ещё античными философами.

До начала промышленной революции, определение сути информации оставалось прерогативой преимущественно философов. В XX веке вопросами теории информации стали заниматься кибернетика и информатика.

Классификация информации

Информацию можно разделить на виды по различным критериям:

по способу восприятия:

  • Визуальная — воспринимаемая органами зрения.
  • Аудиальная — воспринимаемая органами слуха.
  • Тактильная — воспринимаемая тактильными рецепторами.
  • Обонятельная — воспринимаемая обонятельными рецепторами.
  • Вкусовая — воспринимаемая вкусовыми рецепторами.

по форме представления:

  • Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка.
  • Числовая — в виде цифр и знаков, обозначающих математические действия.
  • Графическая — в виде изображений, предметов, графиков.
  • Звуковая — устная или в виде записи и передачи лексем языка аудиальным путём.
  • Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.
  • Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
  • Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.
  • Личная (приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.
  • Актуальная — информация, ценная в данный момент времени.
  • Достоверная — информация, полученная без искажений.
  • Понятная — информация, выраженная на языке, понятном тому, кому она предназначена.
  • Полная — информация, достаточная для принятия правильного решения или понимания.
  • Полезная — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

Значение термина в различных областях знания

Традиционализм субъективного постоянно доминировал в ранних философских определениях информации, как категории, понятия, свойства материального мира. Информация существует независимо от нашего сознания, и может иметь отражение в нашем восприятии только как результат взаимодействия: отражения, чтения, получения в виде сигнала, стимула. Информация нематериальна, как и все свойства материи. Информация стоит в ряду: материя, пространство, время, системность, функция, и др. что есть основополагающие понятия формализованного отражения объективной реальности в её распространении и изменчивости, разнообразии и проявленности. Информация — свойство материи и отражает её свойства (состояние или способность взаимодействия) и количество (мера) путём взаимодействия.

С материальной точки зрения информация — это порядок следования объектов материального мира. Например, порядок следования букв на листе бумаги по определенным правилам является письменной информацией. Порядок следования разноцветных точек на листе бумаги по определенным правилам является графической информацией. Порядок следования музыкальных нот является музыкальной информацией. Порядок следования генов в ДНК является наследственной информацией. Порядок следования битов в ЭВМ является компьютерной информацией и т. д. и т. п. Для осуществления информационного обмена требуется наличие необходимых и достаточных условий.

  1. Наличие не менее двух различных объектов материального или нематериального мира.
  2. Наличие у объектов общего свойства, позволяющего идентифицировать объекты в качестве носителя информации.
  3. Наличие у объектов специфического свойства, позволяющего различать объекты друг от друга.
  4. Наличие свойства пространства, позволяющее определить порядок следования объектов. Например, расположение письменной информации на бумаге — это специфическое свойство бумаги, позволяющее располагать буквы слева направо и сверху вниз.

Достаточное условие одно:

Наличие субъекта, способного распознавать информацию. Это человек и человеческое общество, общества животных, роботов и т. д.

Различные объекты (буквы, символы, картинки, звуки, слова, предложения, ноты и тп.) взятые по одному разу образуют базис информации. Информационное сообщение строится путем выбора из базиса копий объектов и расположение этих объектов в пространстве в определенном порядке. Длина информационного сообщения определяется как количество копий объектов базиса и всегда выражается целым числом. Необходимо различать длину информационного сообщения, которое всегда измеряется целым числом, и количество знаний, содержащегося в информационном сообщении, которое измеряется в неизвестной единице измерения.

С математической точки зрения информация — это последовательность целых чисел, которые записаны в вектор. Числа — это номер объекта в базисе информации. Вектор называется инвариантом информации, так как он не зависит от физической природы объектов базиса. Одно и то же информационное сообщение может быть выражено буквами, словами, предложениями, файлами, картинками, нотами, песнями, видеоклипами, любой комбинацией всех ранее названных. Чем бы мы ни выражали информацию — изменяется только базис, а не инвариант.

В информатике

Предметом изучения науки информатика являются именно данные: методы их создания, хранения, обработки и передачи. А сама информация, зафиксированная в данных, её содержательный смысл интересны пользователям информационных систем, являющимся специалистами различных наук и областей деятельности: медика интересует медицинская информация, геолога — геологическая, предпринимателя — коммерческая и т. п. (в том числе специалиста по информатике интересует информация по вопросам работы с данными).

Системология

Работа с информацией связана с преобразованиями и всегда подтверждает её материальную природу:

  • запись — формирование структуры материи и модуляции потоков путём взаимодействия инструмента с носителем;
  • хранение — стабильность структуры (квазистатика) и модуляции (квазидинамика);
  • чтение (изучение) — взаимодействие зонда (инструмента, преобразователя, детектора) с субстратом или потоком материи.

Системология рассматривает информацию через связь с другими основаниями: I=S/F[MvRvT], где: I — информация; S — системность мироздания; F — функциональная связь; M — материя; v — (v подчёркнутое) знак великого объединения (системности, единства оснований); R — пространство; T — Время.

Объекты материального мира находятся в состоянии непрерывного изменения, которое характеризуется обменом энергией объекта с окружающей средой. Изменение состояния одного объекта всегда приводит к изменению состояния некоторого другого объекта окружающей среды. Это явление вне зависимости от того, как, какие именно состояния и каких именно объектов изменились, может рассматриваться как передача сигнала от одного объекта другому. Изменение состояния объекта при передаче ему сигнала называется регистрацией сигнала.

Сигнал или последовательность сигналов образуют сообщение, которое может быть воспринято получателем в том или ином виде, а также в том или ином объёме. Информация в физике есть термин, качественно обобщающий понятия «сигнал» и «сообщение». Если сигналы и сообщения можно исчислять количественно, то можно сказать, что сигналы и сообщения являются единицами измерения объёма информации.

Одно и то же сообщение (сигнал) разными системами интерпретируется по-своему. Например, последовательно длинный и два коротких звуковых (а тем более в символьном кодировании -..) сигнала в терминологии азбуки Морзе — это буква Д (или D), в терминологии БИОС от фирмы AWARD — неисправность видеокарты.

В математике

В математике теория информации (математическая теория связи) — раздел прикладной математики, определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. Основные разделы теории информации — кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Математика является больше чем научной дисциплиной. Она создает единый язык всей Науки.

Предметом исследований математики являются абстрактные объекты: число, функция, вектор, множество, и другие. При этом большинство из них вводится акcиоматически (аксиома), то есть без всякой связи с другими понятиями и без какого-либо определения.

Информация не входит в число предметов исследования математики. Тем не менее, слово «информация» употребляется в математических терминах — собственная информация и взаимная информация, относящихся к абстрактной (математической) части теории информации. Однако, в математической теории понятие «информация» связано с исключительно абстрактными объектами — случайными величинами, в то время как в современной теории информации это понятие рассматривается значительно шире — как свойство материальных объектов.

Связь между этими двумя одинаковыми терминами несомненна. Именно математический аппарат случайных чисел использовал автор теории информации Клод Шеннон. Сам он подразумевает под термином «информация» нечто фундаментальное (нередуцируемое). В теории Шеннона интуитивно полагается, что информация имеет содержание. Информация уменьшает общую неопределённость и информационную энтропию. Количество информации доступно измерению. Однако он предостерегает исследователей от механического переноса понятий из его теории в другие области науки.

«Поиск путей применения теории информации в других областях науки не сводится к тривиальному переносу терминов из одной области науки в другую. Этот поиск осуществляется в длительном процессе выдвижения новых гипотез и их экспериментальной проверке.» К. Шеннон.

В юриспруденции

Правовое определение понятия «информация» дано в федеральном законе от 27 июля 2006 года № 149-ФЗ «Об информации, информационных технологиях и о защите информации» (Статья 2): «информация — сведения (сообщения, данные) независимо от формы их представления».

Федеральный закон № 149-ФЗ определяет и закрепляет права на защиту информации и информационную безопасность граждан и организаций в ЭВМ и в информационных системах, а также вопросы информационной безопасности граждан, организаций, общества и государства.

В теории управления

В теории управления (кибернетике), предметом исследования которой являются основные законы управления, то есть развития систем управления, информацией называются сообщения, получаемые системой из внешнего мира при адаптивном управлении (приспособлении, самосохранении системы управления).

Основоположник кибернетики Норберт Винер говорил об информации так:

Н. Винер Кибернетика, или управление и связь в животном и машине; или Кибернетика и общество

Эта мысль Винера дает прямое указание на объективность информации, то есть её существование в природе независимо от сознания (восприятия) человека.

Объективную информацию современная кибернетика определяет как объективное свойство материальных объектов и явлений порождать многообразие состояний, которые посредством фундаментальных взаимодействий материи передаются от одного объекта (процесса) другому, и запечатлеваются в его структуре.

Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы. В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный код, или код источника. Таким образом, каждая материальная система является источником информации.

Субъективную (семантическую) информацию кибернетика определяет как смысл или содержание сообщения. (см. там же) Информация — это характеристика объекта.

Дезинформация

Дезинформацией (также дезинформированием) называется один из способов манипулирования информацией, как то введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не нужной информации, или полной, но не в нужной области, искажения контекста, искажения части информации.

Цель такого воздействия всегда одна — оппонент должен поступить так, как это необходимо манипулятору. Поступок объекта, против которого направлена дезинформация, может заключаться в принятии нужного манипулятору решения или в отказе от принятия невыгодного для манипулятора решения. Но в любом случае конечная цель — это действие, которое будет предпринято.

Copyright © Галеон сайт багетной мастерской
г. Москва, Проспект Мира 102, стр. 34
метро » Алексеевская», «Рижская»

Понятия информации, даваемые различными науками. Отличие от сведений данных и знаний

Существует множество определений и взглядов на понятие «информация». Так, например, наиболее общее философское определение звучит следующим образом: «Информация есть отражение реального мира. Информация — отраженное разнообразие, то есть нарушение однообразия. Информация является одним из основных универсальных свойств материи». В узком, практическом толковании определение понятия «информация» представляется так: «Информация есть все сведения, являющееся объектом хранения, передачи и преобразования».

Автор теории информации К. Шеннон (1916) определил понятие информации как коммуникацию, связь, в процессе которой устраняется неопределенность. Шеннон предложил в к. 40-х годов единицу измерения информации — бит. Каждому сигналу в теории приписывалась априорная вероятность его появления. Чем меньше вероятность появления того или иного сигнала, тем больше информации он несет для потребителя (т.е. чем неожиданнее новость, тем больше ее информативность).

Информация равна нулю, когда возможно только одно событие. С ростом числа событий она увеличивается и достигает максимального значения, когда события равновероятны. При таком понимании информация — это результат выбора из набора возможных альтернатив. Однако математическая теория информации не охватывает все богатство содержания информации, поскольку она не учитывает содержательную сторону сообщения.

Дальнейшее развитие математического подхода к понятию «информация» отмечается в работах логиков (Р. Карнап, И. Бар-Хиллел) и математиков (А.Н. Колмогоров). В этих теориях понятие информации не связано ни с формой, ни с содержанием сообщений, передаваемых по каналу связи. Понятие «информация» в данном случае определяется как абстрактная величина, не существующая в физической реальности, подобно тому, как не существует мнимое число или не имеющая линейных размеров точка.

С кибернетической точки зрения информация (информационные процессы) есть во всех самоуправляемых системах (технических, биологических, социальных). При этом одна часть кибернетиков определяет информацию как содержание сигнала, сообщения, полученного кибернетической системой из внешнего мира. Здесь сигнал отождествляется с информацией, они рассматриваются как синонимы. Другая часть кибернетиков трактуют информацию как меру сложности структур, меру организации. Вот как определяет понятие «информация» американский ученый Б.Винер, сформулировавший основные направления кибернетики, автор трудов по математическому анализу, теории вероятностей, электрическим сетям и вычислительной техники: информация — это обозначение содержания, полученного из внешнего мира.

В физике информация выступает в качестве меры разнообразия. Чем выше упорядоченность (организованность) системы объекта, тем больше в ней содержится «связанной» информации. Отсюда делается вывод, что информация — фундаментальная естественнонаучная категория, находящаяся рядом с такими категориями как «вещество» и «энергия», что она является неотъемлемым свойством материи и потому существовала и будет существовать вечно. Так, например, французский физик Л. Бриллюэн (1889-1969), основоположник зонной теории твердых тел, автор трудов по квантовой механике, магнетизму, радиофизики, философии естествознания, теории информации определяет информацию как отрицание энтропии (энтропия — мера неопределенности, учитывающая вероятность появления и информативность тех или иных сообщений).

С 50-60-х годов терминология теории информации стала применяться и в физиологии (Д. Адам). Была обнаружена близкая аналогия между управлением и связью в живом организме и в информационно-технических устройствах. В результате введения понятия «сенсорная информация» (т.е. оптические, акустические, вкусовые, тепловые и прочие сигналы, поступающие к организму извне или вырабатываемые внутри его, которые преобразуются в импульсы электрической или химической природы, передающиеся по нейронным цепям в центральную нервную систему и от нее — к соответствующим эффекторам) появились новые возможности для описания и объяснения физиологических процессов раздражимости, чувствительности, восприятия окружающей среды органами чувств и функционирования нервной системы.

В рамках генетики было сформулировано понятие генетической информации — как программа (код) биосинтеза белков, материально представленных полимерными цепочками ДНК. Генетическая информация заключена преимущественно в хромосомах, где она зашифрована в определенной последовательности нуклеидов в молекулах ДНК. Реализуется эта информация в ходе развития особи (онтогенеза).

Таким образом, систематизируя вышеизложенное, можно сделать вывод, что для инженеров, биологов, генетиков, психологов понятие «информации» отождествляется с теми сигналами, импульсами, кодами, которые наблюдаются в технических и биологических системах. Радиотехники, телемеханики, программисты понимают под информацией рабочее тело, которое можно обрабатывать, транспортировать, так же как электричество в электротехнике или жидкость в гидравлике. Это рабочее тело состоит из упорядоченных дискретных или непрерывных сигналов, с которыми и имеет дело информационная техника.

С правовой точки зрения информация определяется как «некоторая совокупность различных сообщений о событиях, происходящих в правовой системе общества, ее подсистемах и элементах и во внешней по отношению к данным правовым информационным образования среде, об изменениях характеристик информационных образований и внешней среды, или как меру организации социально-экономических, политических, правовых, пространственных и временных факторов объекта. Она устраняет в правовых информационных образованиях, явлениях и процессах неопределенность и обычно связана с новыми, ранее неизвестными нам явлениями и фактами».

Информация с экономической точки зрения — это стратегический ресурс, один из основных ресурсов роста производительности предприятия. Информация — основа маневра предпринимателя с веществом и энергией, поскольку именно информация позволяет устанавливать стратегические цели и задачи предприятия и использовать открывающиеся возможности; принимать обоснованные и своевременные управленческие решения; координировать действия различных подразделений, направляя их усилия на достижение общих поставленных целей. Например, маркетологи Р.Д. Базел, Д.Ф. Кокс, Р.В. Браун определяют понятие «информация» следующим образом: «информация состоит из всех объективных фактов и всех предположений, которые влияют на восприятие человеком, принимающим решение, сущности и степени неопределенностей, связанных с данной проблемой или возможностью (в процессе управления). Все, что потенциально позволит снизить степень неопределенности, будь то факты, оценки, прогнозы, обобщенные связи или слухи, должно считаться информацией».

В менеджменте под информацией понимаются сведения об объекте управления, явлениях внешней среды, их параметрах, свойствах и состоянии на конкретный момент времени. Информация является предметом управленческого труда, средством обоснования управленческих решений, без которых процесс воздействия управляющей подсистемы на управляемую и их взаимодействие невозможен. В этом смысле информация выступает основополагающей базой процесса управления.

Значение информации для бизнеса определили Д.И. Блюменау и А.В. Соколов: «информация — это продукт научного познания, средство изучения реальной действительности в рамках, допустимых методологией одного из информационных подходов к исследованию объектов различной природы (биологических, технических, социальных). Подход предполагает описание и рассмотрение этих объектов в виде системы, включающей в себя источник, канал и приемник управляющих воздействий, допускающих их содержательную интерпретацию». Если попытаться объединить предложенные подходы, то получится следующее:

Данные несут в себе информацию о событиях, произошедших в материальном мире, поскольку они являются регистрацией сигналов, возникших в результате этих событий. Однако данные не тождественны информации. Станут ли данные информацией, зависит от того, известен ли метод преобразования данных в известные понятия. То есть, чтобы извлечь из данных информацию необходимо подобрать соответствующий форме данных адекватный метод получения информации. Данные, составляющие информацию, имеют свойства, однозначно определяющие адекватный метод получения этой информации. Причем необходимо учитывать тот факт, что информация не является статичным объектом — она динамически меняется и существует только в момент взаимодействия данных и методов. Все прочее время она пребывает в состоянии данных. Информация существует только в момент протекания информационного процесса. Все остальное время она содержится в виде данных.

Одни и те же данные могут в момент потребления представлять разную информацию в зависимости от степени адекватности взаимодействующих с ними методов.

Читайте также:  Сказка что было бы если не было зрения

По своей природе данные являются объективными, так как это результат регистрации объективно существующих сигналах, вызванных изменениями в материальных телах или полях. Методы являются субъективными. В основе искусственных методов лежат алгоритмы (упорядоченные последовательности команд), составленные и подготовленные людьми (субъектами). В основе естественных методов лежат биологические свойства субъектов информационного процесса. Таким образом, информация возникает и существует в момент диалектического взаимодействия объективных данных и субъективных методов.

Переходя к рассмотрению подходов к определению понятия «знания» можно выделить следующие трактовки. Знания — это:

  • * вид информации, отражающей знания, опыт и восприятие человека — специалиста (эксперта) в определенной предметной области;
  • * множество всех текущих ситуаций в объектах данного типа и способы перехода от одного описания объекта к другому;
  • * осознание и толкование определенной информации, с учетом путей наилучшего ее использования для достижения конкретных целей, характеристиками знаний являются: внутренняя интерпретируемость, структурируемость, связанность и активность.

Основываясь на приведенных выше трактовках рассматриваемых понятий, можно констатировать тот факт, что знание — это информация, но не всякая информация — знание. Информация выступает как знания, отчужденные от его носителей и обобществленные для всеобщего пользования. Другими словами, информация — это превращенная форма знаний, обеспечивающая их распространение и социальное функционирование. Получая информацию, пользователь превращает ее путем интеллектуального усвоения в свои личностные знания. Здесь мы имеем дело с так называемыми информационно-когнитивными процессами, связанными с представлением личностных знаний в виде информации и воссозданием этих знаний на основе информации.

В превращении информации в знание участвует целый ряд закономерностей, регулирующих деятельность мозга, и различных психических процессов, а также разнообразных правил, включающих знание системы общественных связей, — культурный контекст определенной эпохи. Благодаря этому знание становится достоянием общества, а не только отдельных индивидов. Между информацией и знаниями имеется разрыв. Человек должен творчески перерабатывать информацию, чтобы получить новые знания.

Таким образом, учитывая вышеизложенное, можно сделать вывод, что фиксируемые воспринимаемые факты окружающего мира представляют собой данные. При использовании данных в процессе решения конкретных задач — появляется информация. Результаты решения задач, истинная, проверенная информация (сведения), обобщенная в виде законов, теорий, совокупностей взглядов и представлений представляет собой знания.

Определение информации с точки зрения разных наук

Библиографическая ссылка на статью:
Баяндин А.В. Что такое информация? // Исследования в области естественных наук. 2012. № 4 [Электронный ресурс]. URL: http://science.snauka.ru/2012/04/234 (дата обращения: 07.02.2019).

“Развитие Знания и обогащение тезауруса путем активного управления на основе

обратной связи Разума с Информацией – средством взаимодействия в социуме”.

bajandin@philosophy.nsc.ru , 630129, Novosibirsk, 3-108 Rodniki Str.

t / f :+7(383)270-8344

Введение

Постнеклассическая наука на современном уровне развития естествознания характеризуется не только бурным ростом экспериментальных фактов и теоретического знания, но и т.н. информационным всплеском (бумом, взрывом) в различных областях научного познания мироустройства.

Действительно, благодаря кибернетике, информационным технологиям, всеобщей компьютеризации развитых стран, информация из различных источников знания стала доступна большинству населения этих государств; объем и качество информации, например в Интернете, растет постоянно в реальном времени, превращая сам Интернет в самоорганизующуюся устойчивую Систему взаимосвязи и взаимодействий.

Вместе с тем, использование понятия информации в различных областях знания носит порой неадекватный, многозначный характер, доходящий до размытости понятия и даже его неопределенности. Ставится, даже довольно известными учеными вопрос о неопределяемости данного понятия, об использовании в каждой отрасли знаний своего «приемлемого» определения. В частности, по мнению академика Н.Н. Моисеева, “… строгого и достаточно универсального определения информации не только нет, но оно вряд ли возможно” [1].

В соответствии со сказанным, вопрос об определении понятия «Информация» является актуальным и необходимым для выявления существенных подобных связей и взаимодействий в различных научных направлениях исследования природы с целью их интеграции в единое Знание и построения адекватной физической картины Мира.

1. Генезис понятия информации.

Действительно, термин «Информация», как говорят – «на слуху». В отличие от таких понятий, как масса, гравитация, гены, ион, спин и прочие термины науки, слово «Информация» широко используется и в быту: на радио, в телевидении, в общении людей. Такую значимость и распространенность «Информация» приобрела примерно с 50-ых годов прошлого столетия – начала разработки и внедрения ЭВМ. Из методологии науки известно, что название терминов науки часто происходит от понятий, используемых в быту, в повседневной жизни людей. Так, например: 1) заряд — порох в оружейных патронах, (быт.), – свойство электронов и протонов, порождающее электрическое поле, (физ.); 2) ядро – внутренняя, серединная часть растительного ореха, зерна, (быт.), – внутренняя, центральная часть атома, (физ.) и др. И в этом нет ничего негативного, т.к. наука чаще всего заимствует известные вербальные понятия, вкладывает в них новый смысл и конвенционально вводит их в новую теорию, методологию. При этом, как правило, старые и новые смысловые значения терминов относятся к понятиям, характеризующим объекты, процессы и явления материального мира, как известные исстари на бытовом уровне, так и – изучаемые и познаваемые наукой.

С понятием «Информация» дело обстоит несколько иначе из-за противоречивой особенности смысловой нагрузки на данный термин. С одной стороны, изначально, в это понятие вкладывались чисто человеческие суждения в процессе познания: разъяснение, изложение, осведомленность. С другой стороны, а именно с подачи Клода Шеннона, этот термин не просто расширил границы своего применения, а кардинально изменил свое предназначение. Из категории познавательных понятий Разума человека он моментально перешел в категорию технических терминов науки – описательных характеристик окружающей действительности и параметров техники, создаваемой человеком. Детерминированным продолжением «Театра абсурда» стало использование этого понятия в формулах энтропии и всевозможных построениях и выводах, связей информации с упорядоченностью и хаосом в природе.

Слово Информация происходит из латинского языка ( information ) и означает — разъяснение, изложение, осведомленность. Словарь Русского Языка (сост. С.И. Ожегов, М., 1952г., стр.220): Информация – Сообщения, осведомляющие о положении дел, о состоянии чего – либо. Словарь иностранных слов (под ред. д. фил. наук В.В. Иванова, М., 1983г., стр.70): Информация – 1)Сообщение, освещающее какие-либо события, положение и ход каких-либо событий; 2)Сведения об окружающем мире и происходящих в нем процессах, получаемые человеком визуально или с помощью специальных устройств. Логика, как одна из теоретических основ информатики, представляет термин «Информация» следующим образом: Информация – сообщение, осведомление о положении дел, сведения о чем-либо, передаваемые людьми. [2]. Как видно из смысла определений Информации – все они схожи друг с другом и характеризуют чисто познавательную сторону мышления человека.

Термин информация стал использоваться в русском языке в Петровскую эпоху; от лат. informatio через польское informacja (возможно также посредством фр. и нем.). Впервые фиксируется в «Духовном регламенте» 1721 г. в значении «представление, понятие о чем-л.». (В европейских языках оно закрепилось раньше – около XIV в.) [3].

Понятие информации используется в философии с давних времен и только в последнее время получило новое, более широкое значение благодаря развитию кибернетики, где оно выступает как одна из центральных категорий наряду с понятиями связи и управления.

Первоначальное понимание информации как передачу сведений от одного человека к другому человеку или группе людей с помощью устной или письменной речи, передачу условных знаков (символов) посредством специальных передающих и принимающих устройств сохранялось вплоть до сер. XX в. В 1948 американский математик Норберт Винер, “отец” современной кибернетики, в работе « Кибернетика, или Управление и связь в животном и машине » предложил «информационное видение» кибернетики как науки об управлении и связи в живых организмах, обществе и машинах.

В 1949г. в статье К.Шеннона и У. Уивера «Математическая теория связи» была сформулирована математическая теория Информации, опирающаяся на понятие вероятности. Под Информацией здесь понимаются не произвольные сообщения, которыми обмениваются люди, а лишь такие, которые уменьшают неопределенность у получателя информации. За единицу измерения количества информации приняли такую информацию, которая позволяет осуществить выбор из двух равновеликих возможностей, и назвали ее бит. Английским кибернетиком и биологом У.Р. Эшби предложено определение Информации на основании категории разнообразия: «Информация существует там, где есть разнообразие». За простейшую единицу измерения количества информации принимается различие двух объектов или элементарное различие: два различных объекта несут 1 бит информации.

Стремительное возрастание роли информационной сферы, способов ее автоматизации привело к созданию компьютеров и в целом – компьютеризации науки и общества, что привело к появлению философско-социологических и футурологических концепций будущего «информационного общества».

Информация и ее свойства являются объектом исследования целого ряда научных дисциплин, таких как теория информации (математическая теория систем передачи информации); кибернетика (наука о связи и управлении в машинах и животных, а также в обществе и человеческих существах); семиотика (наука о знаках и знаковых системах); прагматика (теория исследования аксиологии информации, ее ценности); теория массовой коммуникации (исследование средств массовой информации и их влияния на общество); информатика (изучение процессов сбора, преобразования, хранения, защиты, поиска и передачи всех видов информации и средств их автоматизированной обработки); соционика (теория информационного метаболизма индивидуальной и социальной психики); информодинамика (наука об открытых информационных системах) и т.д.

Развитие понятия информации в современной науке привело к появлению ее различных мировоззренческих, в особенности философских, интерпретаций (трансцендентальная, т.е. сверхъестественная, природа информации в неотомизме; информация как субъективный феномен в неопозитивизме и экзистенциализме и т.д.).

К сожалению, до сих пор не решен вопрос, ведет ли рост количества информации к уменьшению или к увеличению энтропии (теория информации и кибернетика отвечают на этот вопрос противоположным образом). Возникает множество до конца не решенных философских вопросов, в частности, например, о предметной области понятия «информация»: является ли она свойством всех материальных объектов, или только живых и самоуправляющихся, или только сознательных существ и т.д.

Автоматизация вычислений на базе новых технологий в электронике явилась базой для создания компьютеров и в целом компьютеризации науки и общества. Новое научное направление – Информатика, объединила разделы математики, физики, техники, кибернетики и разработала новые машинные и логические языки для ЭВМ. В информатике гармонично интегрировались производство, переработка, хранение и распространение всех видов информации в обществе, природе и технических устройствах.

2. Онтологический статус понятия «Информация».

Как и расширение границ понимания нового научного направления «Информатики», включающей в себя не только научную информацию и методы работы с ней, но и теорию связи, прикладную математику и математическую логику, программирование, так и сам термин «Информация» претерпел трансформацию и вобрал в себя некоторые технические стороны новой науки.

Уже в 1955 году в статье академика С.Л.Соболева, А.И.Китова и А.А.Ляпунова «Основные черты кибернетики» понятие информации приобретает явно технический оттенок, изменяя первоначальный смысл этого понятия. Понятию информации придается очень широкий смысл, включая в него как всевозможные внешние данные, которые могут восприниматься, или передаваться какой-либо определенной системой, так и данные, которые могут вырабатываться внутри системы. В последнем случае система будет служить источником сообщений. В [4] говорится, что информацией могут являться, например, воздействия внешней среды на организм человека и животного; знания и сведения, получаемые человеком в процессе обучения; сообщения, предназначаемые для передачи с помощью какой-либо линии связи; исходные, промежуточные и окончательные данные в вычислительных машинах и т.п. Новая точка зрения возникла на основании изучения процессов в автоматических устройствах.

Общим для всех видов информации является то, что сведения или сообщения всегда задаются в виде какой-либо временной последовательности, то есть в виде функции времени.

Количество переданной информации и тем более эффект воздействия информации на получателя не определяется количеством энергии, затраченной на передачу информации. Например, при помощи телефонного разговора можно остановить завод, вызвать пожарную команду, поздравить с праздником. Нервные импульсы, идущие от органов чувств к головному мозгу, могут нести с собой ощущения тепла или холода, удовольствия или опасности.

Сущность принципа управления заключается в том, что движение и действие больших масс или передача и преобразование больших количеств энергии направляются, контролируются при помощи небольших масс и небольших количеств энергии, несущих информацию. Этот принцип управления лежит в основе организации и действия любых управляемых систем: автоматических машин и живых организмов.

Любая автоматически управляемая система состоит из двух основных частей: управляемого объекта и системы управления (регулятора) – и характеризуется наличием замкнутой цепи передачи информации.

Регулятор преобразует информацию, характеризующую действительное состояние объекта, в информацию управления, то есть информацию, которая должна определять будущее состояние объекта. Таким образом, регулятор представляет собой устройство преобразования информации.

Реакция управляемой системы на воздействие всецело зависит от ценности информации. Ценность информации определяется самим объектом, его внутренним устройством, тезаурусом вложенной в память информацией.

Для сложных систем управления, как, например, нервная система животных и человека, решающее значение имеет принцип обратной связи. При выполнении какого-либо действия управляющие сигналы в виде нервных импульсов передаются от головного мозга к исполнительным органам и вызывают, в конечном счете, мышечное движение. Линию обратной связи представляют сигналы от органов чувств, а также кинестетические мышечные сигналы положений, передаваемые в головной мозг и характеризующие фактическое положение исполнительных органов.

Многие авторы, как указывается в [5], даже спустя 40 лет после становления кибернетики, продолжают игнорировать (или не понимать) значения и определяющей роли обратных связей. Так, обратные связи, по утверждению А.А. Крушанова, «не являются самым существенным признаком управления» [6]. Более того, и «Философский словарь» (1991г.) трактует управление без привлечений понятия обратной связи, адаптации и самоорганизации.

В современной постнеклассической науке самоорганизация, нелинейность, законы управления на основе обратных связей выявляются и изучаются и используются не только в живых организмах, искусственной механической и электронной технике, но – и в структуре и организации Вселенной [7,8]. И что действительно удивительно, даже в математике, ее основе — теории чисел – выявляются закономерности самоорганизации на основе принципа обратной связи [9,10].

И там, где наше сознание, наш Разум фиксирует взаимодействие – основу движения материи, там он своим мышлением выявляет то, что является агентом этого взаимодействия. Фиксация мысли в виде художественных образов, абстрактных символов, жестов и пр. для передачи их другим мыслящим существам, и есть информация. По Ф. Энгельсу, взаимодействие – вот первое, что выступает перед нами, когда мы рассматриваем движущуюся материю в целом… Так естествознанием подтверждается то, что говорит Гегель, – что взаимодействие является истинной causa finalis (конечной причиной) вещей. Мы не можем пойти дальше познания этого взаимодействия именно потому, что позади его уже нечего познавать[11]. Вместе с тем, мы не можем определить, «ощутить» саму информацию, как не можем увидеть и пощупать собственно мысль человека. В естествознании аналогичные примеры можно привести для понятий времени, пространства, материи, движения, энергии… Как точно отметил Ф.Энгельс [12]: «Сперва создают абстракции, отвлекая их от чувственных вещей, а затем желают познавать эти абстракции чувственно, желают видеть время и обонять пространство». Такие слова, как «материя», «движение», «время», «пространство», «энергия», «информация» являются на самом деле сокращениями, обобщенными понятиями, в которых отражаются наиболее общие свойства множества различных чувственно воспринимаемых явлений, процессов и объектов окружающей действительности.

3. Причины поризма [i] понятия “Информация”.

Не следует говорить о том, о чем нечего сказать.

Людвиг Витгенштейн [32]

Информация – сведения, передаваемые одними людьми другим людям устным, письменным или каким-либо другим способом (например, с помощью условных сигналов, с использованием технических средств и т. д.), а также сам процесс передачи или получения этих сведений. Информация всегда играла в жизни человечества очень важную роль. Однако в середины XX в. в результате социального прогресса и бурного развития науки и техники роль информации неизмеримо возросла. Кроме того, происходит лавинообразное нарастание массы разнообразной информации, получившее название “информационного взрыва”. В связи с этим возникла потребность в научном подходе к информации, выявлении её наиболее характерных свойств, что привело к двум принципиальным изменениям в трактовке этого понятия. Во-первых, оно было расширено и включило обмен сведениями не только между человеком и человеком, но также между человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире. Передачу признаков от клетки к клетке и от организма к организму также стали рассматривать как передачу информации. Во-вторых, была предложена количественная мера информации (работы К. Шеннона, А. Н. Колмогорова http://slovari.yandex.ru/dict/bse/article/00035/93500.htm и др.), что привело к созданию теории информации .

Более общий, чем прежде, подход к понятию информации, расширяющий сферу применения этого понятия, а также появление точной количественной меры информации пробудили огромный интерес к изучению информации. Такой поризм для понятия информации побудил к ней интерес не только со стороны гуманитарных, но и – технических наук. С начала 1950-х гг. предпринимаются попытки использовать понятие информации (не имеющее пока единого определения) для объяснения и описания самых разнообразных явлений и процессов.

Исследование проблем, связанных с научным понятием информации, идёт в трёх основных направлениях. Первое из них состоит в разработке математического аппарата, отражающего основные свойства информации в кибернетике.

Второе направление заключается в теоретической разработке различных аспектов информации на базе уже имеющихся математических средств, в исследовании различных свойств информации. Например, уже с момента создания теории информации возникла сложная проблема измерения ценности, полезности информации с точки зрения её использования. В большинстве работ по теории информации это свойство не учитывается. Однако важность его несомненна. В количественной теории, выдвинутой в 1960 А. А. Харкевичем, ценность информации определяется как приращение вероятности достижения данной цели в результате использования данной информации. Близкие по смыслу работы связаны с попытками дать строгое математическое определение количества семантической (т. е. смысловой) информации (Р. Карнап и др.).

Третье направление связано с использованием информационных методов в лингвистике, биологии, психологии, социологии, педагогике и др. В лингвистике, например, проводилось измерение информативной ёмкости языков. После статистической обработки большого числа текстов, выполненной с помощью ЭВМ, а также сопоставления длин переводов одного и того же текста на разные языки и многочисленных экспериментов по угадыванию букв текста выяснилось, что при равномерной нагрузке речевых единиц информацией тексты могли бы укоротиться в 4—5 раз. Так был с этой точки зрения установлен факт избыточности естественных языков и довольно точно измерена её величина, находящаяся в этих языках примерно на одном уровне. В нейрофизиологии информационные методы помогли лучше понять механизм действия основного закона психофизики – закона Вебера – Фехнера, который утверждает, что ощущение пропорционально логарифму возбуждения. Именно такая зависимость должна иметь место в случае, если нервные волокна, передающие сигналы от акцепторов к мозгу, обладают свойствами, присущими идеализированному каналу связи, фигурирующему в теории информации. Значительную роль информационный подход сыграл в генетике и молекулярной биологии, позволив, в частности, глубже осознать роль молекул РНК как переносчиков информации. Ведутся также исследования по применению информационных методов в искусствоведении.

Читайте также:  Болезни головного мозга при потере зрения

Такое разнообразное использование понятия информации побудило некоторых учёных придать ему общенаучное значение. Основоположниками такого общего подхода к понятию информации были английский нейрофизиолог У. Р. Эшби и французский физик Л. Бриллюэн. Они исследовали вопросы общности понятия энтропии в теории информации и термодинамике, трактуя информацию как отрицательную энтропию (негэнтропию). Бриллюэн и его последователи стали изучать информационные процессы под углом зрения II начала термодинамики, рассматривая передачу информации некоторой системе как усовершенствование этой системы, ведущее к уменьшению её энтропии. В некоторых философских работах был выдвинут тезис о том, что информация является одним из основных универсальных свойств материи. Положительная сторона этого подхода состоит в том, что он связывает понятие информации с понятием отражения.

Естественнонаучное понимание информации основано на двух определениях этого понятия, предназначенных для различных целей (для теории информации, иначе называемой статистической теорией связи, и теории статистических оценок ). К ним можно присоединить и третье (находящееся в стадии изучения), связанное с понятием сложности алгоритмов.

Центральное положение понятия информации в кибернетике объясняется тем, что кибернетика (ограничивая и уточняя интуитивное представление об информации) изучает машины и живые организмы с точки зрения их способности воспринимать определённую информацию, сохранять её в “памяти”, передавать по “каналам связи” и перерабатывать её в “сигналы”, направляющие их деятельность в соответствующую сторону.

В некоторых случаях возможность сравнения различных групп данных, по содержащейся в них информации, столь же естественна, как возможность сравнения плоских фигур по их “площади” [13]. Независимо от способа измерения площадей можно сказать, что фигура A имеет не большую площадь, чем B, если A может быть целиком помещена в В (сравни примеры 1—3 ниже). Более глубокий факт — возможность выразить площадь числом и на этой основе сравнить между собой фигуры произвольной формы — является результатом развитой математической теории. Подобно этому, фундаментальным результатом теории информации является утверждение о том, что в определённых весьма широких условиях можно пренебречь качественными особенностями информации и выразить её количество числом. Только этим числом определяются возможности передачи информации по каналам связи и её хранения в запоминающих устройствах.

Теория информации изучает два основных вопроса:

а) вопрос об измерении количества информации.

б) вопрос о качестве информации, или ее достоверности;

Соответственно, направления исследования по первому вопросу связаны с пропускной способностью и емкостью различных систем (устройств накопления, каналов передачи), перерабатывающих информацию; по второму – надежность и помехоустойчивость этих систем. Для измерения количества информации, переданной по какому-либо каналу передачи, принята логарифмическая мера: логарифм от общего числа ( n ) различных возможных равновероятных вариантов информации, которые могли быть представлены данным источником за данное время.

Основание а определяется выбором единицы измерения количества информации. Например, а = 2 – для двоичной системы (две равновероятные возможности «да» и «нет»).

Становление кибернетики имело большое методологическое значение для объединения в широком плане результатов и достижений различных областей науки: физиология и автоматика, теория связи и статистическая механика. Уже в начале 50-х годов прошлого столетия определился ряд понятий, имеющих общетеоретическое значение: принцип обратной связи, играющий основную роль в теории автоматического регулирования и колебаний и имеющий большое значение для физиологии. Например, понятие энтропии в теории вероятностей имеет общетеоретическое значение, а его частные приложения относятся как к области статистической термодинамике, так и к области теории связи, а возможно, и к другим областям. Эти общие закономерности имеют объективный характер.

Эйфория обобщений и внедрения новых терминов в различные области науки принесла, несомненно, как пользу, так и определенный перекос в понимании терминологии. Так случилось и с информацией. Особенный интерес к представлению об информации как о некотором всеобщем свойстве материи, связанном с уровнем ее организации, т.е. свойстве, противоположном энтропии, в 50 – 70 годы прошлого столетия, сменился разочарованием и пессимистическим отношением к эвристичности информационного подхода. Даже в популярной, научно-технической литературе, авторы меняют свою точку зрения со временем. Например, А.Шилейко и Т.Шилейко в книге «Информация или интуиция» 1983 года приводят несколько взглядов, определений информации: «…существует два сорта информации. Первый из них – это информация техническая, та самая, которая передается по телеграфным линиям или отображается на экранах локаторов. Количество такой информации может быть в точности вычислено, и процессы, происходящие с такой информацией, подчиняются физическим законам. Другой сорт информации – информация семантическая, то есть смысловая. Это та самая информация, которая содержится к, к примеру, в литературном произведении. Для такой информации тоже предлагаются различные количественные оценки и даже строятся математические теории. Но общее мнение скорее сводится к тому, что оценки здесь весьма условны и приблизительны и алгеброй гармонию всё-таки не проверишь.

Второй взгляд, которого мы и будем придерживаться в этой книге, состоит в том, что информация – физическая величина, такая же, как, например, энергия или скорость. … информация универсальна. Это подтверждается тем, что, скажем, космогоническая информация ничем не отличается от информации биологической или физической. Все эти виды информации могут быть измерены в одних и тех же единицах. Рост энтропии всякий раз сопровождается уменьшением количества информации и, наоборот, увеличение степени информированности системы сопровождается повышением качества энергии этой системы»[14].

В книге «Беседы об информатике» 1989 года выпуска, тех же авторов, при анализе Шенноновской общей теории связи констатируют: «…Однако объектом приложения этой теории является отнюдь не информация, а каналы связи. Множество сигналов, распространяющихся в любом канале связи, будь то трансатлантический телеграфный кабель, телефонная или радиолиния, составляет статистический ансамбль, к которому применимы понятия статистической физики…. В заключение этой беседы мы вынуждены констатировать, что до сих пор мы не только не знаем, в каких единицах мерить количество информации, но и не знаем вообще, что такое информация[15].

От полного недоумения, “существует ли информация?”[31], до провозглашения нового научного направления – ИНФОРМАЦИОЛОГИИ, представляющей концепцию информационной модели Вселенной и информатизации мирового сообщества (. А.Б.)[32] – таков далеко неполный перечень взглядов на понятие информации.

В нашей философской науке почти 60 лет идет вялый, временами затухающий спор о двух различных подходах к феномену информации. Соперничают друг с другом атрибутивная и функциональная концепции информации. Первые квалифицируют информацию как свойство, присущее всем материальным объектам, как атрибут материи. Примыкающие к функциональной концепции, напротив, связывают информацию с функционированием самоорганизующихся систем, считая, что информация появилась лишь с возникновением жизни.

Указанное противоречие по одному из фундаментальных общенаучных понятий, до сих пор не разрешенное, существенно тормозит развитие как философии науки, так и естественнонаучных дисциплин.

Р.Ф. Абдеевым в книге «Философия информационной цивилизации» [16] предпринимается попытка анализа данного конфликта на основе эволюции представлений об информации и энтропии, концепции о двух классах информации (структурной и оперативной) и обосновывается вывод о том, что информация является полноправной философской категорией.

Отстаивая в своей монографии атрибутивный подход к пониманию информации, Р.Ф. Абдеев вводит новые понятия структурной и оперативной информации, не приводя определения информации как таковой. Критикуя так называемых «функционалистов», он опирается, якобы, на общие философские категории отражения, принципа историзма и др. Критикуя «приверженца» функциональной концепции академика Н.Н. Моисеева, он пытается обосновать правильность атрибутивного подхода логическими противоречиями в книге упомянутого автора «Человек, наука и общество» [17]. Уместно привести доводы Р.Ф. Абдеева из его указанной выше книги по этому поводу:

«В связи с экстенсивным развитием кибернетики, затронувшей большинство областей современной науки, особенно усилилось внимание к феномену информации. Это не только одно из самых распространенных, но и наиболее дискуссионных понятий. Споры о сущности информации продолжаются до сих пор. Показательно в этом отношении, что в нашей философской науке более трех десятилетий сосуществуют два различных подхода, две противостоящие друг другу концепции информации – атрибутивная и функциональная.

“Атрибутисты” квалифицируют информацию как свойство всех материальных объектов, т.е. как атрибут материи (Б.В. Ахлибининский, Л.Б. Баженов, Б.В. Бирюков, К.Е. Морозов, И.Б. Новик, Л.А. Петрушенко, А.Д. Урсул и др.).

“Функционалисты”, напротив, связывают информацию лишь с функционированием самоорганизующихся систем (В.В. Вержбицкий, Г.Г. Вдовиченко, И.И. Гришкин, Д.И. Дубровский, Н.И. Жуков, А.М. Коршунов, М.И. Сетров, Г.И. Царегородцев и др.). “По нашему мнению, – пишет Г.И.Царегородцев, – информация принадлежит лишь управляемым системам (живым и кибернетическим)”. Дубровский Д.И., утверждая, что “атрибутивная концепция теоретически неправомерна”, рассматривает самоорганизующиеся системы в отрыве от предшествовавшей эволюции, в нарушение принципа историзма. Он лишь констатирует, что самоорганизующиеся системы “возникают исторически в период становления жизни на Земле” [18]. Как они возникли, благодаря чему произошло становление жизни – этого функционалисты предпочитают не объяснять. …

Новый импульс функциональной концепции информации дала опубликованная в 1982 г. книга Н.Н. Моисеева “Человек, наука, общество” [19]. В противоборстве двух концепций функционалисты по существу стремятся вновь вернуться (при современном уровне научного познания) к ограниченному пониманию информации – лишь как передачи сигналов в управляющих системах, возникших с появлением жизни. Но в этом случае ставится под сомнение преемственность материальных образований в процессе развития материи от простого к сложному, от неживого к живому. Кроме того, возникает ряд трудных вопросов, на которые функционалисты не дают ответ. Так, Н.Н. Моисеев, утверждая, что понятия информации и обратной связи “совершенно излишни на уровне организации неживой материи” [19], фактически отвергает понятие структурной информации, не признает факты передачи элементарных сигналов в неживой природе. В противовес этому приведем следующие высказывания: “Хранилищем информации объектов неживой природы является их собственная упорядоченная структура” (Е.А. Седов), “Нейтрино несет информацию о глубинном строении материи, процессах в современных галактиках и звездах” (В. Ермолаев). Другие примеры: годичные кольца на срезе древесины содержат объективную информацию о жизни данного растения независимо от того, воспринял субъект эту информацию или нет; Л.А. Петрушенко писал, что “кроме энергии, заключенной в куске угля, там содержится и информация о событиях, происшедших в далекие времена”. [20].

Что касается Н.Н. Моисеева, то он рассуждает с точки зрения математика-программиста, занятого моделированием различных процессов. Но с более широкой, философской точки зрения – развития в соответствии с диалектическими законами и принципами историзма – отрицательная обратная связь в живых системах возникла не просто так. Ее предпосылкой в неживой природе явился принцип отрицательного обратного действия. В живых организмах принцип отрицательного обратного действия реализуется в информационных процессах управления. Для таких процессов он получил название принципа отрицательной обратной связи” [21].

Связь энтропии и информации была (в неявной форме) отмечена Л. Сциллардом в 1929 г. Он указал, что энтропия, теряемая газом благодаря разделению частиц с высоким и низким уровнем энтропии, равна информации, получаемой “демоном Максвелла” и передающейся наблюдателю “эксперимента”.

Позже К. Шенноном было замечено совпадение математического выражения количества информации с формулой Л. Больцмана и дано определение информации, основанное на энтропии сообщений. Теория информации получила начало с работ К. Шеннона (1948), в которых под информацией понималось сообщение, уменьшающее неопределенность (энтропию) у получателя сообщений [22].

Учитывая вышесказанное и в интересах более полного выявления возможностей атрибутивной концепции, мы в данной работе при исследовании поставленных проблем придерживаемся атрибутивной концепции информации (см. также [23]) и считаем это методологически целесообразным и оправданным.

Понятие информации настолько всеобъемлюще, что ряд авторов вводит его в свои определения понятия жизни. Так, А. А. Ляпунов утверждает: “Жизнь – это высокоустойчивое состояние вещества, использующее для выработки сохраняющих реакций информацию, кодируемую состояниями отдельных молекул” [24].

“Жизнь, – считает Н.С. Кардашев, – возникает благодаря возможности синтеза особого вида молекул, способных запоминать и использовать вначале самую простую информацию об окружающей среде и собственной структуре, которую они используют для самосохранения, для восприятия и, что для нас особенно важно, получения еще большего количества информации” [25].

Что касается философского статуса информации, то в отечественной литературе информация до сих пор считается лишь общенаучным понятием, хотя ряд авторов уже высказались за признание информации философской категорией. Вопрос этот дискуссионный, поэтому уместно высказать и нашу точку зрения.

К философским категориям относятся, как утверждал П.В. Копнин, те понятия, которые способствуют решению проблем, составляющих предмет философии. Из изложенного нами материала видно, что в решении проблем развития именно информации принадлежит определяющее значение. Все философские категории – гносеологические (в широком смысле). Информация – узловой пункт познания и, как философская категория, позволяет выявить не только всеобщее, но и частное – конкретные, многогранные связи с действительностью, как отражение этой действительность. Поэтому информация, как философская категория, является ступенькой развития не только познания, но и общественной практики людей, их отношений между собой и природой.

Один из наиболее общих критериев статуса философских категорий – успешное использование в философии (на том или ином этапе ее развития) вновь вводимых понятий, их содействие приращению философского знания в целом. Информация, удовлетворяя всем требованиям философской категории, не только отражает всеобщие формы бытия, их связи и взаимообусловленность, но и является фактором развития от низшего к высшему в природе, обществе и в познании. Материал данного учебника свидетельствуют о всеобщности информации как философской категории. Непризнание информации философской категорией можно объяснить лишь данью догматическим тенденциям, которые уже преодолеваются сегодняшним развитием естествознания.

Атрибутивная концепция информации, все разнообразие объектов и процессов как двух разновидностей информации также позволяют обосновать информацию как философскую категорию. Остановимся на этом подобнее.

Как следует из содержания первых глав, мы разделяем информацию на:

1. структурную (или связанную ), присущую объектам неживой и живой природы естественного и искусственного происхождения.

2. оперативную (или рабочую ), циркулирующую между объектами материального мира, используемую в процессах управления в живой природе, в человеческом обществе.

Таким образом, две разновидности (или два класса) информации тесно связаны взаимными переходами и обусловленностью. При этом сигналы могут быть даны одной и приняты другой системой благодаря структурной неоднородности самих систем и среды, через которую они передаются. На этой основе акад. В. М. Глушков сформулировал следующее определение: “Информация в самом общем ее понимании представляет собой меру неоднородности распределения материи и энергии в пространстве и времени, меру изменений, которыми сопровождаются все протекающие в мире процессы” [26].

Эволюция живой природы и становление наиболее высокоорганизованной биологической (и социальной) структуры – человека с его качественно новым уровнем отражения – сознанием, в свою очередь, способствовали резкому повышению интенсивности оперативной информации и взаимообщению людей в процессе их трудовой деятельности. Появилось множество новых взаимосвязей, взаимодействий, что в конечном итоге привело к образованию новой метаструктуры – человеческого общества. Последнее обусловило резкое возрастание социальной, научно-технической, технологической, статистической и прочей оперативной информации, используемой в целенаправленной деятельности людей по созданию множества новых искусственных структур (орудий труда, машин, предметов быта, наук, произведений искусства и т.п.), т.е. ноосферы[27]».

К сожалению, мне претит «развешивание ярлыков», деление ученого сообщества на «черных» и «белых». Это, скорее, похоже на Ленинский стиль отстаивания своей точки зрения. В том же сообществе «атрибутистов» достаточно специалистов, придерживающихся разномастных взглядов и на отражение и на энтропию и на теорию информации К.Шеннона.

Иногда даже мнение одного уважаемого ученого в области точных наук, высказанное, казалось бы, в шутку, достаточно, чтобы вызвать страстную и длительную полемику.

Так, в 1948 году К. Шеннон вновь поднял проблему определения информационного содержания сообщения. Он обсуждал ее с фон Нейманом, который предложил:

«Вы должны назвать информационное содержание энтропией по двум причинам. Во-первых, потому, что ваша функция неопределенности уже связана в статической механике с этим понятием и, таким образом, оно уже имеет название. Во-вторых, (что, вероятно, более важно) потому что никто в действительности не знает, что такое энтропия, и любое обсуждение этого вопроса – уже шаг вперед»[28].

По поводу возможной корреляции между энтропией и информацией в литературе можно встретить различные точки зрения, начиная от глубоко укоренившегося скептицизма [29]:

«С моей точки зрения, эти аналогии интересны и заслуживают изучения, но они не идут достаточно далеко, чтобы открыть новые возможности для взаимного обогащения двух дисциплин»

«Информация и энтропия, по-видимому, связаны друг с другом: информация измеряет вероятность определенного выбора элементов кода, на котором зашифровано сообщение. Энтропия измеряет вероятность определенного термодинамического состояния и, следовательно, его тенденцию к эволюции – (спонтанному) переходу к более вероятному состоянию (например, переходу сжатого газа в разреженное состояние при уменьшении давления)»[30].

Интересные исследования информационных процессов в свете новых направлений постнеклассической науки: нелинейной динамики (синергетики), представлены И.В. Мелик-Гайказян [31]. Отдавая должное становлению многостадийного информационного процесса в неравновесных диссипативных структурах, автор, аргументируя многочисленными примерами и обзором литературы, предлагает рассматривать феномен информации как информационный процесс, состоящий из ряда элементарных актов. Перечень возможных стадий информационного процесса представляет собой, собственно говоря, абстрактный процесс от генерации информации, до ее – считывания другой рецепторной системой [32]. Настоящая парадигма, с точки зрения автора, представляет наиболее содержательное определение информации, позволяющее понять роль информации в самоорганизующихся системах, а также подойти к оценке количества информации и ее единице измерения. Так, по Генри Кастлеру: «Информация есть случайный запоминаемый выбор варианта из многих возможных и равноправных»[33].

Анализируя подход К. Шеннона к измерению количества информации I по формуле:

знак минус отвечает условию I > 0, ибо log 2Pi ≤ 0, так как Pi ≤ 1, И.В. Мелик-Гайказян справедливо замечает, что эта формула служит всего – лишь основанием для определения пропускной способности каналов связи и энтропии источников сообщений. Основные черты математической теории информации К. Шеннона можно резюмировать следующим образом:

1. В ней отсутствует определение понятия «информация», что не является преградой для ее создателей, развивающих не теорию информации, а теории. связи.

2. Термин «количество информации» используется как синоним статистических характеристик букв, составляющих сообщение. Буквы, сигналы, передаваемые по каналам связи, сами по себе не несут информации, для обмена которой существуют системы связи. Передаваемая информация связана с осмысленным сочетанием букв. Эта осмысленность никак не учитывается формулой для «количества информации». Математическая теория информации полностью игнорирует содержание информации. Рассчитывая пропускную способность канала связи, бессмысленно принимать во внимание содержание телеграмм [34]. Информация может быть более или менее ценной в зависимости, от преследуемой цели, происхождение которой в теории информации Шеннона не обсуждалось. Ценной информация считается та, которая помогает достижению цели. В отличие от шенноновского определения количества информации, передаваемой по каналам связи, ценность проявляется в результатах рецепции и непосредственно с ней связана. Не менее убедительно в книге развенчивается миф энтропийного и негэнтропийного исследования информации. Так как энтропия присуща всем термодинамическим системам, то и негэнтропия (информация) как дополняющая характеристика должна быть приписана всей материи. Отсюда следуют такие некорректные, но до сих пор еще довольно популярные философско-методологические положения.

Читайте также:  Для чего люди живут лука с точки зрения лука

— Информация содержится в каждом материальном объекте, она вездесуща и, следовательно, является одним из свойств материи.

— Существуют две степени порядка материальных объектов:

неупорядоченность (энтропия) и упорядоченность (негэнтропия, равная информации).

Первое утверждение противоречит представлению об информации как о процессе, ибо процесс, да еще связанные со случайным выбором, может протекать, а может и отсутствовать. Генерация информации – это событие, которое не является детерминированным и уж конечно не представляет собой характеристику любого материального объекта.

Второе следствие является методологическим абсурдом, что иллюстрирует неблагополучие с породившим его негэнтропийным принципом. Получается, что одна и та же сущность – степень упорядоченности – потребовала для своего описания двух характеристик: энтропии (степень беспорядка) и негэнтропии (степень порядка). Это такой же методологический нонсенс, как утверждения: «тело теплое, потому что содержит тепло», «тело холодное, потому что содержит холод» [35]. В отношении связи энтропии с информацией, автор приходит к следующему. Только изменение энтропии может быть сравнимо с информацией. Так как рецепция информации – процесс необратимый, то есть информация не может самопроизвольно обращаться вспять, то и сама рецепция – процесс неуравновешенный, ибо потоки информации между источником и рецептором неуравновешенны. Рецепторная система есть система диссипативная, переходящая под влиянием информационного потока в состояние с уменьшенной энтропией. Сказанное позволяет заключить, что:

— количество информации – это величина, характеризующая процесс ее рецепции, не являющаяся функцией состояния;

— количество информации, изменяя энтропию рецептирующей системы, связано не с функцией состояния системы, не с энтропией, а с величиной ее изменения:

где: S убыль энтропии.

В философской литературе часто встречается определение информации посредством термина «отражение». Исходя из установок материалистической теории познания, что всеобщим свойством материи является отражение, информации стали приписывать такое же всеобщее свойство материи, как, например, движение. Так «информация – это философская категория, рассматриваемая наряду с такими понятиями, как пространство, время, материя» [36]. Что это обстоит иначе сформулировано П.Копниным: «Превращение понятия информация в ранг философской категории и замена им категории отражение будет шагом назад, а не вперед. Задача философов была бы слишком простой, если бы она состояла в том, чтобы отобрать из современной науки понятия, обладающие большей степенью общности, и включить их в систему философских категорий» [37]. А.Д.Урсул приводит следующее определение информации: «Информация есть отраженное разнообразие» [38]. Позже он дает иное определение: «Информация не тождественна отображению, а есть лишь инвариантная часть, поддающаяся опредмечиванию, объективированию, передаче» [39]. В подобных определениях смешиваются понятия «отражение» и «разнообразие», «генерация» и «рецепция». В самом деле, «разнообразие» входит в определение генерации информации (случайный выбор из «разнообразных», нетождественных элементов), а «отражение» – это элемент рецепции информации.

Таким образом, становится очевидным, что корни трудностей определения информации заключаются в попытках рассмотреть постнеклассический объект – феномен информации – с позиций и методами традиционной науки. Всякий раз выход из таких неудач был в отказе от моделей, неадекватных реальности, в переходе к новой парадигме [40].

На основании проведенного анализа, автор приводит следующее определение информации:

Феномен информации есть многостадийный, необратимый процесс становления структуры в открытой неравновесной системе, начинающийся со случайного запоминаемого выбора, который эта система делает, переходя от хаоса к порядку, и завершающийся целенаправленным действием согласно алгоритму или программе, отвечающим семантике выбора [31].

Такой подход к пониманию информации можно назвать процессуальным, в отличие от атрибутивного и функционального подходов. К сожалению, в монографии так и нет определения информации, а информационный процесс выдается за феномен информации. Экспликацией этому являются, по-видимому, сложность рассмотрения постнеклассического объекта – феномена информации – с позиций и методами традиционной науки.

4. Определение понятия «Информация» методом морфологического анализа.

Вопрос с феноменом «Информация» может быть разрешен только при рассмотрении его с такими понятиями, как материя, дух (идеальное) или что-то третье, граничащее между ними.

Как и в психологии, основной вопрос философии актуален и в естествознании. Особенно это заметно при анализе понятий, относящихся к характеристике высокоорганизованной материи, а также – при неадекватном переносе этих понятий на более низкие уровни организации материи.

Рассмотрим феномен информации посредством морфологического метода, то есть сравним свойства информации, как феномена, со свойствами понятий, так или иначе, связанных с понятием информации. В отличие от Г. Клауса [40], включим в перечень сравнений Разум (Сознание), Тезаурус, а также свойства – непрерывность, дискретность, время и пространство.

Иллюзорный мир фантазий человека путем овеществления мысли – реализуется в виртуальном мире современных компьютеров.

Под информацией можно понимать меру осмысления (понимания) внешних (из физической реальности) и внутренних (психологических переживаний) взаимодействий Разума человека, до уровня возможности трансляции через объяснение.

В виртуальном, искусственном (радио, телевидение, компьютер…) мире Информация овеществляется.

Информация — сугубо человеческая категория восприятия окружающей действительности.

Информация субъекта – мысль субъекта, возникшая посредством взаимодействия:

а) с внешней средой;

б) в процессе мышления.

Информация объекта – реакция на взаимодействие.

Субъективная Информация есть осознанная или неосознанная мысль.

Мысль – вне времени и пространства. Овеществление информации вербально или в символах носит статический характер, как характер вневременных мыслей человека.

И если информация – вне времени, то и существует она неограниченно долго, вечно и является первичной субстанцией всего Мироздания.

Мысль структурирует пространство, поляризует его двумерные составляющие элементы.

Живая мысль при переносе ее на материальный носитель становится статичной и абстрактной.

Математика – это абстрактное отражение статической мысли человека на материальном носителе. Математика отражает виртуальную природу Разума человека, нежели физическую реальность. Придавая абстракциям определенные свойства (координаты…): время и пространство, Разум моделирует физическую реальность.

Разуму трудно, невозможно воспроизвести физическую реальность, бренную по своей природе. Только через Себя, постигая тонкости своего мышления, ориентируясь на искусственные модели природных явлений, человек познает окружающую его действительность.

Почему Разум стремится к постулированию, аксиоматике, поиску констант?

Только лишь для согласования внутреннего Я – статического Сознания с динамическим материальным и бренным миром!

*См. P . S .1.

Итак, термин Информация является овеществленной, материализованной мыслью Человека. Посредством рефлексии человек переносит абстрактное (смысловое) содержание мысли и чувств – в слова и символы. Таким образом, и математика есть не абстрактное отражение действительности, а всего лишь ментальная ее модель. Посредством рефлексии мысль фиксируется на носителе информации, т.е. становится той информацией, которую можно транслировать, кодировать, размножать и передавать.

Вербализованная мысль является актом творчества личности.

Самосознание – Эго – Я, осознает себя и фильтрует мысли как мыслеформы, выделяя те из них, которые наиболее логичны и ближе всего отражают реальность.

Информация или — Вербализованная мысль, есть остановленное мышление, сохраняющее в себе внутреннее содержание мысли. Аналогом определению информации является вещество, как одна из форм существования материи: Вещество есть остановленное движение света (потока фотонов) как целого с сохранением движения внутреннего.

Созерцая окружающую действительность Разум «строит» свой собственный мир. Разум как часть окружающей действительности является Целым для своего искусственного, создаваемого им Мира. И в Разуме – как часть, отражается его мир, поэтому там нет человека с его сознанием.

Бог создал этот Мир, но его (Бога) в нем нет, т.к. этот мир является его Сознанием, его Частью.

*См. P . S .2.

Окружающий мир человека дискретен по своей природе, материален. Материя – мыслится только в движении, пространственно оформленная, изменяющаяся во времени. Разум человека – вне времени и пространства.

Мысль – непрерывна и перманентна в смысле целостности (не делима). Для мысли нет времени, это не физическая система.

*См. P . S .3.

Информация – осознанная Разумом (индивидуальным или общественным) мысль, как реакция на внутренний (мышление), либо внешний (восприятие) раздражитель (воздействие). Информация, как и мысль – не стареет, изменяется только ее материальный носитель. Информация не зависит от пространства. Например: Маленькие или большие буквы алфавита; нахождение и транспортировка книги из одного региона в другой.

В косной Природе – материи присуще отражение, как ответная реакция на воздействие. Т.е. происходит взаимодействие материальных объектов.

Биоматерия, живые организмы – обладают т.н. сигнальными системами анализа, обработки соответствующей реакции на раздражитель – внешнее или внутреннее воздействие на организм в реальном времени. И только Разум способен на переработку внешних и внутренних сигналов в виртуальном времени, т.е. даже не во времени, а вне него, без него. Т.е., Разум обладает возможностью обработки внешних и внутренних воздействий, как в реальном времени, так и вне него, за счет многократного обращения к собственной памяти, генерирования новой информации, извлечения информации из т.н. «остановленного» мышления – книг, видео, компьютерной информации (вербальной, визуальной и символьной информации). Человек не может представить в своем воображении движение объектов, он представляет только статику объектов, т.е. – вне времени. И только во сне, когда память на материальном носителе – нейронах коры головного мозга активизируется и воспроизводит смену образов – появляется виртуальное движение.

*См. P . S .4.

Через перцепцию (восприятие) — Разум мыслит. То, что осознанно озвучено, вербально отождествлено, выражено в искусстве, в творениях человеческих рук – всё есть остановленное мышление – Информация.

Восприятие же самой Информации зависит во многом от понимания, т.е. насколько подготовлен Разум (каков его тезаурус) к её переработке. Например, если человек не знает иностранного языка, либо язык математики, музыки, то для него такая вербальная, символьная информация не дает понимания. Т.е. овеществленная мысль не всегда есть информация, а только когда другой (воспринимающий) Разум на основе своего тезауруса может её понять и извлечь для себя определенные знания.

Природа устроена целесообразно: «Каждый сверчок знает свой шесток». Каждому виду соответствует своя ниша. Разум – это проявление высокоорганизованной материи в идеальном плане, то есть не в материальном. Это позволяет создавать, генерировать идеи, мыслить независимо от «течения времени» материи, изменении в конкретном месте нахождения в пространстве. Но, в свою очередь, это является и определенным ограничением: мышление статично, а материя – динамична. Поэтому Разум постоянно ищет ориентиры: постулаты, аксиомы, константы, законы сохранения в Природе, дабы «привязать» свой статический неизменный мир идей к динамическому материальному миру вещей.

5. Определение понятия «Информация».

Мысльсвойство Разума познавать вне времени и пространства внешний и внутренний мир человека. Внешние восприятия и внутренние воспоминания формируют мысль, как представление (воображение) какого-либо объекта или субъекта и логически связанное с ними вербальное описание:

a ) Мысль Разума, выраженная символически: вербально (устно или письменно), музыкальными нотами, художественным произведением искусства, символическим кодом и пр., понятая другим Разумом, есть Информация Разума;

b )Логически связанные мысли Разума, синтезированные в ходе размышлений человека, основанные на анализе теоретического и практического знания, выраженные символами, принятыми конвенционально сообществом людей: вербально (устно или письменно), музыкальными нотами, художественным произведением искусства, чертежами конструкций, символическим кодом и пр., понимаемые другим Разумом, есть Информация Разума.

Следовательно, как мысль, так и Информация Разума (ИнфРа) есть «сущности» вне времени и пространства. Только к материи (конкретно для определенного ее вида), с неотделимым свойством движения и протяженности, применимы меры времени и объема. ИнфРа – есть идеальная сущность, к которой подходят только идеальные меры: качество и количество. Природа материальна, открыта и динамична во множестве качественно и количественно отличных друг от друга движений. Информационный Мир человека статичен: человек, его Разум, не способны в Информации отображать движение. Так, в математике, абстрактной изначально с принятыми конвенционально правилами оперирования числами и символами, отсутствует понятие времени. Оно вводится как параметр в функциональный анализ и остается там в статическом виде, не действуя без дополнительных процедур ввода данных и расчета результатов. Физическая картина Мира, создаваемая статическим мышлением, является статической моделью реального материального динамичного Мира. В силу такой особенности мышления человека он ищет в абстрактных построениях моделей окружающей Природы сохраняющиеся (не зависящие от времени) постоянные величины, характеризующие его статические представления о Мире, т.н. фундаментальные физические постоянные. Математика должна быть динамичной! Там, где речь идет о малых (микрокосм) и очень больших (макрокосм) величинах — числа должны зависеть от времени, т.к. отображают они как короткоживущие, так и долгоживущие материальные частицы.

В общем случае – Информация может быть двух видов: естественная и искусственная. К искусственной информации целесообразно отнести Информацию Разума, обусловленную мышлением Разума на основе теоретических и практических знаний; к естественной – Информация Разума, основанная на синтезе мыслей человека при анализе впечатлений от восприятия ощущений, эмоций от созерцания объектов, субъектов и явлений Природы.

*См. P . S .5.

P . S .1. Разуму трудно принять положение, что его носитель – организованная материя, также бренна как и вся материя и имеет очень короткое время жизни. Поэтому Разум – организованное мышление, ищет пути продления жизни своего материального носителя – тела Человека. Познавая себя на микро-уровне: генетический код, геном человека, Разум перенесет этот код на новый материальный носитель – неорганическую материю со значительно большим временем жизни. В перспективе будут созданы машины – разумные роботы на основе символьного кодирования генетического кода человека, знаний, информационного опыта и информации о жизни индивидуума в определенный промежуток времени и записи этой Информации на неорганический материальный носитель. Используя управление, основанное на обратной связи взаимодействий (рефлексия у Человека), робот разумный сможет генерировать информацию на основе заложенных знаний и синтаксисе употребляемого языка. Но, это уже другая тема.

P . S .2. Человек, являясь элементом (клеткой) общественного организма, не эволюционирует. Эволюционирует только сам общественный организм. Например, клетки любого организма – не эволюционируют, изменяется только сам организм. Но, в силу того, что любое объединение элементов в единую целостную структуру имеет меньшую энтропию, более экономично – это свойство систем наиболее выгодно и является преобладающей тенденцией среди прочих.

P . S .3. С точки зрения естественнонаучного математического мышления – континуум связи всего происходящего, духовного и материального – реально существует. С точки зрения философии, прежде всего у Кьёркегора, подобный континуум постижим как чистая абстракция. Только абстрактное мышление создает непрерывность (континуитивность); жизнь, конкретный мир переходит из одного состояния в другое внезапно, вдруг, через «скачок».

Разум, иначе – Ум; способность, деятельность человеческого духа, направленная не только на причинное, дискурсивное познание (как рассудок), но и на познание ценностей, на универсальную связь вещей и всех явлений и на целесообразную деятельность внутри этой связи.

P . S .4. В естествознании для описания явлений природы, свойств материальных объектов – вводят понятия, термины, которые реальны только для Разума, но сами не существуют в Природе. К ним можно отнести понятие энергии, энтропии, вероятности, температуры, давления и др. В Природе существует материя с присущими ей свойствами движения, структурности, дискретности, различными видами агрегатного состояния, взаимодействиями как внешними, так и внутренними, изменениями состояния движения от начала «рождения» и до смерти. Исследуя динамичную материальную Природу статичным Разумом, человек постоянно вводит понятия и термины, различные соответствующие меры, чтобы ориентироваться в пространстве и времени, чтобы понять грандиозную динамичную картину мира. К сожалению, всё Понимание Природы сводится к созданию Человеком своего искусственного Мира, в чем-то похожего на мир Природы, но отличным от него кардинально в силу статичности мышления.

P . S . 5. Разум – это не физическая система, он не может взаимодействовать с произвольной физической системой. Мышление, мысль – непрерывны и статичны, то есть – не имеют составных частей и не зависят от течения времени. Материя – дискретна и изменяется со временем (делима на частицы и имеет изменчивое движение). Время – мера длительности движения, либо изменения агрегатного состояния материи. Длительность – наблюдение процесса какого-либо движения в произвольной его фазе. Пространство – нефизическая континуитивная среда, не имеющая ни формы, ни измерений. Основное свойство пространства – индуцировать электромагнитные волны под воздействием переменного электрического тока и передавать их на большие расстояния посредством взаимоиндукции; это свойство основано на физическом проявлении нефизической идеальной среды (Вакуума) под воздействием периодического движения заряженных частиц материи (металлического вибратора, антенны, находящихся под переменным электрическим потенциалом).

Примечания

[i] Поризмом в античной литературе называли утверждение, которое получается в ходе решения какой-либо задачи, охватывающее по своему содержанию более широкий круг явлений, чем тот, к которому относилась задача.

Морфологический анализ (морфологический ящик) – метод систематизации перебора вариантов всех теоретически возможных решений, основанный на анализе структуры объекта.

Метод создан в 30-е гг. XX в. швейцарским астрофизиком Ф. Цвикки. Получил известность с 1942 г. (США).

Применяется при поиске решений в различных областях человеческой деятельности. Применяется при исследовании проблемных ситуаций и выборе направлений решений.

Морфологический анализ может быть использован для создания условий, облегчающих поиск новых идей и решений при формирования портфеля ценных бумаг. С помощью комбинаторики можно получить все теоретически возможные варианты исполнения.

Цель – создать условия, расширяющие область поиска новых идей и решений проблемы, исходя из особенности строения (морфологии) совершенствуемого объекта. Суть метода – с помощью комбинаторики путем построения морфологической матрицы постараться получить все теоретически возможные варианты реализации объекта с требуемой главной функцией.

Реальная информация – понимание на основе памяти, тезауруса и Разума через восприятие органами чувств материальных сигналов окружающей действительности и потенциальной информации.

Потенциальная информация – семантическое средство взаимосвязи (общения, взаимодействия) людей; (нематериальная) мысль человека, перенесенная на материальный носитель в виде знакового кода*, потенциально семантически понятного для людей, использующих данный код конвенционально.

* — используемого людьми конвенционально.

Потенциальная информация – мысль человека, перенесенная на материальный носитель в виде знакового кода, используемого людьми конвенционально. Потенциальная информация является семантическим средством взаимосвязи (общения, взаимодействия) людей.

Кинетическая Информация – мысль, возникшая в процессе восприятия знакового кода.

Под знаковым кодом подразумевается алфавит к.-л. языка, семантика образования слов и предложений, речь, жесты, музыкальные ноты и музыка, скульптуры, рукотворные и машинные изделия, программы для ЭВМ и конечные результаты их работы, выводимые на дисплей и т.п.

Информация м. б. устаревшей, актуальной и преждевременной, востребованной и – бесполезной, истинной и ложной, понимаемой и не воспринимаемой в силу интеллекта человека – реципиента.

Связь с автором (комментарии/рецензии к статье)

Оставить комментарий

Вы должны авторизоваться, чтобы оставить комментарий.

Если Вы еще не зарегистрированы на сайте, то Вам необходимо зарегистрироваться:

&copy 2019. Электронный научно-практический журнал «Исследования в области естественных наук».

Источники:
  • http://vuzlit.ru/1039237/ponyatiya_informatsii_davaemye_razlichnymi_naukami_otlichie_svedeniy_dannyh_znaniy
  • http://science.snauka.ru/2012/04/234