Меню Рубрики

Что такое информация с точки зрения шеннона

Одним из фундаментальных достижений американского математика и инженера Клода Шеннона (Claude Elwood Shannon; 1916-2001) стало создание теории информации. В помощь слушателям лекции мы сообщим элементарные сведения об этой дисциплине.


Информация с точки зрения математики. Илл.: Gwen Vanhee/Flickr

Реплика собеседника, бумажное или электронное письмо, красный сигнал светофора, звонок в дверь — всё это передача информации. Любой случай такой передачи можно описать при помощи общей схемы. В ней присутствуют отправитель (источник) информации, получатель (адресат) и канал связи. Канал связи может вносить в передаваемое сообщение случайные помехи, затрудняя прочтение этого сообщения адресатом. Такими помехами могут быть, например, шумы при телефонном разговоре или же морская вода, размывшая буквы в письме капитана Гранта.

Количество переданной или полученной информации можно измерить. В старину объем бумажной переписки можно было измерять в количестве страниц, телеграф приучил людей считать слова и знаки, и, в конце концов, люди пришли к определению минимальной единицы информации. Это бит (от английского binary digit — «двоичная цифра»), он равен одному символу в двоичной системе (0 или 1). Термин «бит» предложил Шеннон в статье «Математическая теория связи».

Информацию можно определить и как степень уменьшения неопределенности. Адресат получает информацию, какое из возможных событий произошло. Если число этих возможных событий равно двум, то информацию о произошедшем событии можно передать одним битом. Например, из двух возможных результатов бросания монетки обозначить орел единицей, а решку — нулем.

Что происходит, если этих возможных событий больше двух? Сколько битов понадобится для передачи информации? Предположим, нам надо угадать число от 1 до 16, задавая собеседнику вопросы, на которые он будет отвечать «да» или «нет», при этом стараясь, чтобы количество этих вопросов было минимальным. Мы будем разделять множество возможных вариантов на равные части. «Это число от 1 до 8?» — «Нет». — «Это число от 9 до 12?» — «Да». — «Это число от 9 до 10?» — «Нет». — «Это 11?» — «Да». Нам понадобилось четыре вопроса, то есть четыре байта информации, чтобы узнать число. При этом изначально у нас имелось 16 равновероятных событий, то есть наше количество информации равняется log216=4. В целом информация о том, какое из N событий произошло, записывается log2N битами, в случае если N не является степенью двух, то нужен log2N+1 бит (рассмотрите пример с угадыванием числа от 1 до 17).

А что, если вероятности возможных событий не равны? Предположим, существует пруд, в котором живут рыбы четырех видов. Каждый день рыбак идет к пруду и вылавливает одну рыбу. Больше всего в пруду карасей, вероятность того, что на удочку попадется карась, составляет 1/2. На втором месте окуни, вероятность добычи окуня равна 1/4. Вероятности поимки ерша и пескаря равны 1/8. Мы задаем рыбаку вопросы, на которые отвечает «да» или «нет». Наша цель — узнать, кого поймал сегодня рыбак. В этом случае выгоднее не пытаться каждым вопросом делить множество вариантов пополам (например, «Название рыбы начинается на гласную?»), а спрашивать сразу: «Это карась?». С вероятностью 1/2 мы накроем цель первым же вопросом. Правда, если сегодня попался ерш, нам придется задать целых три вопроса. Казалось бы, этот метод хуже. Но если мы будем играть в эту игру с рыбаком на протяжении 200 дней, то в 100 случаях нам будет достаточно одного вопроса, в 50 случаях — двух и в 50 — трех. Используя первый метод, мы каждый раз будем тратить по два вопроса, а если мы учтем вероятности, то в среднем мы затратим по (100×1+50×2+50×3)/200=1,75 вопроса. Экономия налицо!

Пример с рыбами демонстрирует важное понятие теории информации — энтропию. Энтропия определяется формулой:

Так как вероятности отдельных событий меньше единицы, их логарифмы всегда отрицательны и энтропия тоже отрицательна. Среднее количество информации, необходимое для сообщения об одном из этих событий, определяется как I(С)=-Н(С). В нашем случае с рыбами:

Среди теорем теории информации, сформулированных и доказанных Клодом Шенноном, есть и такая: при кодировании, допускающем однозначное декодирование, средняя длина сообщений не меньше энтропии источника.

Информация передается по каналу связи: при помощи звуковых волн в воздухе, электрическими сигналами по проводам или еще как-то. В идеальном случае информация из источника доставляется адресату без искажений (т.н. «канал без шума»), однако это далеко не всегда так. В теории информации разработаны особые алгоритмы снижения числа ошибок при передаче, их обнаружения и устранения. Наиболее простым способом обнаружения ошибок служит контроль четности. Предположим, нам надо передать двоичное сообщение:

Разобьем его на группы по три символа:

100 101 011 111.

Если в группе число единиц четно, добавим в нее четвертым символом ноль, а если нечетно, добавим единицу:

1001 1010 0110 1111.

Добавленные нами символы позволяют контролировать ошибки. Если при передаче в каждой группе из четырех знаков число единиц четно, то всё нормально. Если же возникла ошибка (а ошибка — это замена нуля на единицу или единицы на ноль), то число единиц в данной группе станет нечетным. Следует помнить, что этот способ не будет работать, когда в группе из четырех символов одновременно произойдут две ошибки.

Коды способны даже помочь нам исправить ошибку, возникшую при передаче информации по каналу связи. Предположим, нам надо передать четыре бита информации 1011. Добавляем к ним еще три проверочных бита. Делаем это так, чтобы четными были три суммы: первого, второго, третьего и пятого битов; первого, второго, четвертого и шестого битов, первого, третьего, четвертого и седьмого битов. В нашем случае проверочные биты должны быть 001. Адресат, получив сообщение, должен посчитать эти три суммы. Если они четные, ошибок не произошло. Если одна нечетная, то ошибка случилась при передаче проверочного символа. Если две из них нечетные, то ошибка в том символе, который входит в обе суммы. Если все три контрольные суммы нечетные, то ошибка в первом символе (он входит в каждую из сумм).

сообщение контроль
1011 001 ошибок нет
0011 001 ошибка в первом символе

Конечно, в реальных системах передачи информации могут использоваться куда более сложные алгоритмы выявления ошибок, чем тот, что здесь описан.

Теоремы Шеннона о передаче информации по каналу с шумами утверждают, что для такого канала всегда можно найти систему кодирования, при которой сообщения будут переданы со сколь угодно большой степенью верности, если только производительность источника не превышает пропускной способности канала. Иными словами, информацию можно передавать со сколь угодно малой вероятностью ошибки и с любой скоростью, если она меньше некоторой критической для данного канала величины.

Определение Клодом Шенноном теоремы о пропускной способности зашумленных каналов связи. Метод исчислений количества новой (непредсказуемой) и избыточной (предсказуемой) информации, содержащейся в сообщениях, передаваемых по каналам технической связи.

Рубрика Программирование, компьютеры и кибернетика
Вид реферат
Язык русский
Дата добавления 06.12.2011
Размер файла 22,5 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Министерство образования и науки Российской Федерации

Федеральное агентство по образованию

ГОУ ВПО Сыктывкарский Государственный Университет

Теория информации Клода Шеннона

Руководитель: Болотов С.П

Исполнитель: Панева Я.В,

Клод Элвуд Шеннон (Shannon) (1916 — 2001) — американский инженер и математик. Человек, которого называют отцом современных теорий информации и связи.

Осенним днем 1989 года корреспондент журнала «Scientific American» вошел в старинный дом с видом на озеро к северу от Бостона. Но встретивший его хозяин, 73-летний стройный старик с пышной седой гривой и озорной улыбкой, совсем не желал вспоминать «дела давно минувших дней» и обсуждать свои научные открытия 30-50-летней давности. Быть может, гость лучше посмотрит его игрушки?

Не дожидаясь ответа и не слушая увещеваний жены Бетти, хозяин увлек изумленного журналиста в соседнюю комнату, где с гордостью 10-летнего мальчишки продемонстрировал свои сокровища: семь шахматных машин, цирковой шест с пружиной и бензиновым двигателем, складной нож с сотней лезвий, двухместный одноколесный велосипед, жонглирующий манекен, а также компьютер, вычисляющий в римской системе счисления. И не беда, что многие из этих творений хозяина давно сломаны и порядком запылены, — он счастлив. Кто этот старик? Неужели это он, будучи еще молодым инженером Bell Laboratories, написал в 1948 году «Великую хартию» информационной эры — «Математическую теорию связи»? Его ли труд назвали «величайшей работой в анналах технической мысли»? Его ли интуицию первооткрывателя сравнивали с гением Эйнштейна? Да, это все о нем. И он же в тех же 40-х годах конструировал летающий диск на ракетном двигателе и катался, одновременно жонглируя, на одноколесном велосипеде по коридорам Bell Labs. Это Клод Элвуд Шеннон, отец кибернетики и теории информации, гордо заявивший: «Я всегда следовал своим интересам, не думая ни о том, во что они мне обойдутся, ни об их ценности для мира. Я потратил уйму времени на совершенно бесполезные вещи.»

В 1941 году 25-летний Клод Шеннон поступил на работу в Bell Laboratories. В годы войны он занимался разработкой криптографических систем, и позже это помогло ему открыть методы кодирования с коррекцией ошибок. А в свободное время он начал развивать идеи, которые потом вылились в теорию информации. Исходная цель Шеннона заключалась в улучшении передачи информации по телеграфному или телефонному каналу, находящемуся под воздействием электрических шумов. Он быстро пришел к выводу, что наилучшее решение проблемы заключается в более эффективной упаковке информации.

Но что же такое информация? Чем измерять ее количество? Шеннону пришлось ответить на эти вопросы еще до того, как он приступил к исследованиям пропускной способности каналов связи. В своих работах 1948-49 годов он определил количество информации через энтропию — величину, известную в термодинамике и статистической физике как мера разупорядоченности системы, а за единицу информации принял то, что впоследствии окрестили «битом», то есть выбор одного из двух равновероятных вариантов. Позже Шеннон любил рассказывать, что использовать энтропию ему посоветовал знаменитый математик Джон фон Нейман, который мотивировал свой совет тем, что мало кто из математиков и инженеров знает об энтропии, и это обеспечит Шеннону большое преимущество в неизбежных спорах. Шутка это или нет, но как трудно нам теперь представить, что всего полвека назад понятие «количество информации» еще нуждалось в строгом определении и что это определение могло вызвать какие-то споры.

На прочном фундаменте своего определения количества информации Клод Шеннон доказал удивительную теорему о пропускной способности зашумленных каналов связи. Во всей полноте эта теорема была опубликована в его работах 1957-61 годов и теперь носит его имя. В чем суть теоремы Шеннона? Всякий зашумленный канал связи характеризуется своей предельной скоростью передачи информации, называемой пределом Шеннона. При скоростях передачи выше этого предела неизбежны ошибки в передаваемой информации. Зато снизу к этому пределу можно подойти сколь угодно близко, обеспечивая соответствующим кодированием информации сколь угодно малую вероятность ошибки при любой зашумленности канала.

Эти идеи Шеннона оказались слишком провидческими и не смогли найти себе применения в годы медленной ламповой электроники. Но в наше время высокоскоростных микросхем они работают повсюду, где хранится, обрабатывается и передается информация: в компьютере и лазерном диске, в факсимильном аппарате и межпланетной станции. Мы не замечаем теорему Шеннона, как не замечаем воздух.

В основу теории информации положен предложенный К.Шенноном метод исчислений количества новой (непредсказуемой) и избыточной (предсказуемой) информации, содержащейся в сообщениях, передаваемых по каналам технической связи.

Предложенный Шенноном метод измерения количества информации оказался настолько универсальным, что его применение не ограничивается теперь узкими рамками чисто технических приложений.

Вопреки мнению самого К.Шеннона, предостерегавшего ученых против поспешного распространения предложенного им метода за пределы прикладных задач техники связи, этот метод стал находить все более широкое примение в исследованиях и физических, и биологических, и социальных систем .

Ключом к новому пониманию сущности феномена информации и механизма информационных процессов послужила установленная Л.Бриллюэном взаимосвязь информации и физической энтропии. Эта взаимосвязь была первоначально заложена в самый фундамент теории информации, поскольку для исчисления количества информации Шеннон предложил использовать заимствованную из статистической термодинамики вероятную функцию энтропии.

Многие ученые (начиная с самого К.Шеннона) склонны были рассматривать такое заимствование как чисто формальный прием. Л.Бриллюэн показал, что между вычисленным согласно Шеннону количеством информации и физической энтропии существует не формальная, а содержательная связь.

В статистической физике с помощью вероятностной функции энтропии исследуются процессы, приводящие к термодинамическому равновесию, при котором все состояния молекул (их энергии, скорости) приближаются к равновероятным, а энтропия при этом стремится к максимальной величине.

Благодаря теории информации стало очевидно, что с помощью той же самой функции можно исследовать и такие далекие от состояния максимальной энтропии системы, как, например, письменный текст.

Еще один важный вывод заключается в том, что с помощью вероятностной функции энтропии можно анализировать все стадии перехода системы от состояния полного хаоса, которому соответствуют равные значения вероятностей и максимальное значение энтропии, к состоянию предельной упорядоченности (жесткой детерминации), которому соответствует единственно возможное состояние ее элементов.

Данный вывод оказывается в равной мере справедливым для таких несходных по своей природе систем, как газы, кристаллы, письменные тексты, биологические организмы или сообщества и др.

При этом, если для газа или кристалла при вычислении энтропии сравнивается только микросостояние (т.е. состояние атомов и молекул) и макросостояние этих систем (т.е. газа или кристалла как целого), то для систем иной природы (биологических, интеллектуальных, социальных) вычисление энтропии может производится на том или ином произвольно выбранном уровне. При этом вычисляемое значение энтропии рассматриваемой системы и количество информации, характеризующей степень упорядоченности данной системы и равное разности между максимальным и реальным значением энтропии, будет зависеть от распределения вероятности состояний элементов нижележащего уровня, т.е. тех элементов, которые в своей совокупности образуют эти системы.

Количество сохраняемой в структуре системы информации пропорционально степени отклонения системы от состояния равновесия, обусловленного сохраняемым в структуре системы порядком.

Сам того не подозревая, Шеннон вооружил науку универсальной мерой, пригодной в принципе (при условии выявления значенй всех вероятностей) для оценки степени упорядоченности всех существующих в мире систем.

Определив введенную Шеноном информационную меру как меру упорядоченности движения, можно установить взаимосвязь информации и энергии, считая энергию мерой интенсивности движения. При этом количество сохраняемой в структуре систем информации пропорционально суммарной энергии внутренних связей этих систем.

Читайте также:  Быть в поле зрения быть в поле внимания

Одновременно с выявлением общих свойств информации как феномена обнаруживаются и принципиальные различия относящихся к различным уровням сложности информационных систем.

Так, например, все физические объекты, в отличие от биологических, не обладают специальными органами памяти, перекодировки поступающих из внешнего мира сигналов, информационными каналами связи. Хранимая в них информация как бы «размазана» по всей их структуре. Вместе с тем, если бы кристаллы не способны были сохранять информацию в определяющих их упорядоченность внутренних связях, не было бы возможности создавать искусственную память и предназначенные для обработки информации технические устройства на основе кристаллических структур.

Вместе с тем необходимо учитывать, что создание подобных устройств стало возможным лишь благодаря разуму человека, сумевшего использовать элементарные информационные свойства кристаллов для построения сложных информационных систем.

Простейшая биологическая система превосходит по своей сложности самую совершенную из созданных человеком информационных систем. Уже на уровне простейших одноклеточных организмов задействован необходимый для их размножения сложнейший информационный генетический механизм. В многоклеточных организмах помимо информационной системы наследственности действуют специализированные органы хранения информации и ее обработки (например, системы, осуществляющие перекодирование поступающих из внешнего мира зрительных и слуховых сигналов перед отправкой их в головной мозг, системы обработки этих сигналов в головном мозге). Сложнейшая сеть информационных коммуникаций (нервная система) пронизывает и превращает в целое весь многоклеточный организм.

Уже на уровне биологических систем возникают проблемы учета ценности и смысла используемой этими системами информации. Еще в большей мере такой учет необходим для анализа функционирования интеллектуальных информационных систем.

Глубокое осознание специфики биологических и интеллектуальных систем позволяет выявить те границы, за пределами которых утрачивает свою компетентность разработанный современной наукой информационно-энтропийный подход.

Определить эти границы Шеннону пришлось на самом начальном этапе создания теории информации, поскольку без этого нельзя было использовать количественную меру информации для оценки письменных текстов и других созданных разумом человека информационных систем. Именно с этой целью Шеннон делает оговорку о том, что предложенный им метод исчисления информации письменных текстов игнорирует такие же их неотъемлемые свойства, как смысл и ценность содержащихся в них сообщений.

Так, например, при подсчете количества информации, содержащейся в таких двух сообщениях, как «очередную партию Каспаров играет белыми» и «у гражданина Белова родился сын» получится одна и та же величина — 1 бит. Нет сомнения, что два этих сообщения несут разный смысл и имеют далеко не равнозначную ценность для гражданина Белова. Однако, как было отмечено выше, оценка смысла и ценности информации находится за пределами компетенции теории информации и поэтому не влияет на подсчитываемое с помощью формулы Шеннона количество бит.

Игнорирование смысла и ценности информации не помешало Шеннону решать прикладные задачи, для которых предназначалась первоначально его теория: инженеру по технике связи вовсе не обязательно вникать в суть сообщений, передаваемых по линии связи. Его задача заключается в том, чтобы любое подобное сообщение передавать как можно скорее, с наименьшими затратами средств (энергии, диапазона используемых частот) и, по возможности, безо всяких потерь. И пусть тот, кому предназначена данная информация (получатель сообщений), вникает в смысл, определяет ценность, решает, как использовать ту информацию, которую он получил.

Такой сугубо прагматичный подход позволил Шеннону ввести единую, не зависящую от смысла и ценности, меру количества информации, которая оказалась пригодной для анализа всех обладающих той или иной степенью упорядоченности систем.

После основополагающих работ Шеннона начали разрабатываться основы смысловой (семантической) и ценностной (прагматической, аксиологической) информационных теорий.

Однако ни одной из этих теорий и предлагаемых их авторами единиц измерения ценности или смысла не суждено было приобрести такую же степень универсальности, какой обладает мера, которую ввел в науку Шеннон.

Дело в том, что количественные оценки смысла и ценности информации могут производится только после предварительного соглашения о том, что же именно в каждом конкретном случае имеет для рассматриваемых явлений ценность и смысл. Нельзя одними и теми же единицами измерить ценность информации, содержащейся, скажем, в законе Ома и в признании любви. Иными словами, критерии смысла и ценности всегда субъективны, а потому применимость их ограничена, в то время как мера, предложенная Шенноном, полностью исключает субъективизм при оценке степени упорядоченности структуры исследуемых систем.

Так что же характеризует подсчитанная по формуле Шеннона величина энтропии текста, выражаемая количеством бит? Только лишь одно свойство этого текста — степень его упорядоченности или , иными словами, степень его отклонения от состояния полного хаоса, при котором все буквы имели бы равную вероятность, а текст превратился бы в бессмысленный набор букв.

Упорядоченность текста (или любой другой исследуемой системы) будет тем больше, чем больше различие вероятностей и чем больше вероятность последующего события будет зависеть от вероятностей предыдущих событий.

Согласно негэнтропийному принципу информации количество информации, выражающее этот порядок, будет равно уменьшению энтропии системы по сравнению с максимально возможной величиной энтропии, соответствующей отсутствию упорядоченности и наиболее хаотичному состоянию систем.

Методы исчисления информации, предложенные Шенноном, позволяют выявить соотношение количества предсказуемой (то есть формируемой по определенным правилам) информации и количества той неожиданной информации, которую нельзя заранее предсказать.

Содержащуюся в правилах информацию Шеннон определил как избыточную, потому что знание правил построения сообщений позволяет предсказывать появление букв (или других символов) раньше, чем они будут сообщены по линии связи.

Таким способом удается в той или иной степени «разгрузить» предназначенный для передачи сообщений канал. Проведенный Шенноном анализ английских текстов показал, что содержащаяся в них избыточная информация составляет около 80% от общего количества информации, которое заключает в себе письменный текст. Остальные 20% — это та самая энтропия, благодаря которой текст может служить источником непредсказуемой энергии [2].

Если бы текстовые, устные или зрительные (в частности телевизионные) сообщения были полностью лишены энтропии, они не приносили бы получателям сообщений никаких новостей.

Если бы письменный текст строился только на основании заранее сформулированных правил, то, установив эти правила по тексту первой страницы, можно было бы заранее предсказать, что будет написано на страницах 50, 265, 521 и т.д.

шеннон информация канал связь

Но с начала 60-х годов Шеннон не сделал в теории информации практически больше ничего. Это выглядело так, как будто ему всего за 20 лет надоела созданная им же теория. В 1985 году Клод Шеннон и его жена Бетти неожиданно посетили Международный симпозиум по теории информации в английском городе Брайтоне. Почти целое поколение Шеннон не появлялся на конференциях, и поначалу его никто не узнал. Затем участники симпозиума начали перешептываться: вон тот скромный седой джентльмен — это Клод Элвуд Шеннон, тот самый! На банкете Шеннон сказал несколько слов, немного пожонглировал тремя (увы, только тремя) мячиками, а затем подписал сотни автографов ошеломленным инженерам и ученым, выстроившимся в длиннейшую очередь. Стоящие в очереди говорили, что испытывают такие же чувства, какие испытали бы физики, явись на их конференцию сам сэр Исаак Ньютон.

Клод Шеннон скончался в 2001 году в массачусетском доме для престарелых от болезни Альцгеймера на 84 году жизни.

2. Шеннон К.Е. Математическая теория связи. Работы по теории информации и кибернетике., М, 1963.

3. Шеннон К. Е. Бандвагон. /Работы по теории информации и кибернетике/М.1963.

Размещено на Allbest.ru

Подобные документы

Общее число неповторяющихся сообщений. Вычисление скорости передачи информации и пропускной способности каналов связи. Определение избыточности сообщений и оптимальное кодирование. Процедура построения оптимального кода по методике Шеннона-Фано.

курсовая работа [59,4 K], добавлен 17.04.2009

Общая схема действия каналов связи, их классификация и характеристика. Дискретный, бинарный канал связи и определение их пропускной способности, особенности действия с помехами и без них по теореме Шеннона. Пропускная способность непрерывного канала.

реферат [111,4 K], добавлен 14.07.2009

Предмет и задачи теории информации, ее функции при создании АСУ. Определение пропускной способности дискретных (цифровых) каналов при отсутствии шумов. Расчет скорости передачи информации. Вычисление значения энтропии — среднего количества информации.

контрольная работа [112,0 K], добавлен 18.01.2015

Вычисление количества информации, приходящейся на один символ по формуле Шеннона. Изменения информационной энтропии в текстах экономического, естественнонаучного и литературного содержания. Максимальное количество информации на знак по формуле Хартли.

лабораторная работа [28,2 K], добавлен 06.12.2013

Содержательный и кибернетический подходы к определению и измерению информации. Кодирование символьной информации в компьютере. Линия информации и информационных процессов. Обзор процесса передачи информации по техническим каналам связи. Языки информатики.

презентация [173,0 K], добавлен 19.10.2014

Обработка информации, анализ каналов ее возможной утечки. Построение системы технической защиты информации: блокирование каналов несанкционированного доступа, нормативное регулирование. Защита конфиденциальной информации на АРМ на базе автономных ПЭВМ.

дипломная работа [398,5 K], добавлен 05.06.2011

Изучение алгоритмов допускового контроля достоверности исходной информации, с помощью которых выявляются полные и частичные отказы информационно-измерительных каналов. Определение погрешности выполнения уравнения связи между количествами информации.

лабораторная работа [565,4 K], добавлен 14.04.2012

Определение среднего количества информации. Зависимость между символами матрицы условных вероятностей. Кодирование методом Шеннона–Фано. Пропускная способность канала связи. Эффективность кодирования сообщений методом Д. Хаффмана, характеристика кода.

контрольная работа [94,6 K], добавлен 04.05.2015

Анализ источников опасных сигналов и определение потенциальных технических каналов утечки информации и несанкционированного доступа. Организационные и технические методы защиты информации в выделенном помещении, применяемое инженерное оборудование.

курсовая работа [519,4 K], добавлен 18.11.2015

Количество информации и ее мера. Определение количества информации, содержащегося в сообщении из ансамбля сообщений источника. Свойства количества информации и энтропии сообщений. Избыточность, информационная характеристика источника дискретных сообщений.

реферат [41,4 K], добавлен 08.08.2009

2.1. Понятие «информация» с точки зрения теории информационной коммуникации. Структура информационно-коммуникационной системы

Понятие «информация» используется во многих бытовых высказываниях и теоретических концепциях с разными зна­чениями. Самые простые толкования «информации» таковы: «1) Сообщение о чем-либо; 2) сведения, являющиеся объектом хранения, переработки и передачи. » 1 . В некоторых опреде­лениях информации речь идет о ее содержании: «сведения об окружающем мире и протекающих в нем процессах, воспри­нимаемые человеком или специальными устройствами» 2 . Су­ществуют и другие значения понятия «информация», связан­ные с тем или иным конкретным случаем словоупотребления, с традицией определенной отрасли знаний и человеческой де­ятельности, например: «Сообщения, осведомляющие о поло­жении дел, о состоянии чего-нибудь» 3 .

Современная философская трактовка понятия «информа­ция» свидетельствует о том, что оно является категорией, то есть таким понятием, которое отражает наиболее общие и су­щественные свойства, стороны, отношения явлений действи­тельности и объектов познания. Применение категории «ин­формация» означает, что в познании определенного явления используется так называемая теория информации, или теория информационной коммуникации, или, что тоже самое, инфор­мационно-коммуникационный подход. Это означает, что те или иные явления действительности рассматриваются челове­ком (субъектом познания) как составляющие определенного информационно-коммуникационного процесса или «коммуни­кационной системы».

Теория коммуникации, более известная как «теория инфор­мации», возникла в конце 40-х годов XX в. при изучении про­цессов передачи информации в технических системах, таких как телеграф, радио, телевидение или электронно-вычисли­тельная машина. У истоков этой теории стояли Клод Шеннон и Норберт Винер — основатели кибернетики. В этой теории было предложено рассматривать коммуникацию как систему, кото­рая состоит из пяти элементов, находящихся друг с другом в определенных отношениях (рис. 2.1).

Главные элементы информационно-коммуникационной системы таковы:

1. Источник информации, производящий «сырую» инфор­мацию или сообщение, которое должно быть передано.

2. Передатчик, который кодирует или модулирует эту ин­формацию (изменяет определенные параметры) в форму, подходящую для канала передачи.

3. Канал, по которому закодированная информация, или «сигнал», передается в пункт получения информации. Во вре­мя передачи сигнал может быть изменен «шумом», поступаю­щим от источника «шума».

4. Получатель (приемник), декодирующий или перемоду­лирующий получаемый сигнал для того, чтобы открыть перво­начальное сообщение.

5. Назначение, или конечная цель, информации.

Безусловно, теория коммуникации (или теория информа­ции), разрабатываемая основателями кибернетики и их после­дователями, касалась только технических систем и имела чис­то инженерное толкование. Однако впоследствии предложенная схема коммуникации стала основой для всех исследований ин­формационного процесса, где бы он ни происходил: в социаль­ной сфере, то есть в обществе, в процессе коммуникации между людьми; или в биологической, между живыми существами, не владеющими сознанием; в неживой природе или в физических и химических процессах. В зависимости от того, кто (или что) выступает в качестве передатчиков и приемников, различают коммуникации: технические (когда сигналами обмениваются технические средства, то есть изучается только передача сиг­нала от одного технического средства к другому), биологичес­кие (обмен сигналами между животными) и социальные, или общественные (обмен сообщениями в человеческом обще­стве).

Социальные коммуникации рассматриваются как условие возникновения и существования человеческого общества. От­личие их состоит в том, что создателем сообщения (источником информации или передатчиком) является человек (группа лю­дей) и получателем (приемником или конечной целью переда­чи сообщения) — тоже человек (группа людей).

Информация при этом рассматривается как «то, что переда­ется в процессе коммуникации»: сигналы, изменения в меха­ническом, физическом или химическом состоянии получателя информации; изменения в объеме и характере знаний челове­ка, получающего информацию в результате коммуникацион­ного процесса. «Информация» здесь не имеет никакого конк­ретного наполнения, потому что она является разной в разных коммуникационных системах. Это — понятие, применяемое для обозначения содержания сообщений, которые передаются в процессе коммуникации. Высказывание «передача информа­ции» — это метафора, переносное употребление выражения на основе аналогии, сходства.

Следовательно, понятие «информация» свидетельствует только о том, что определенный процесс рассматривается ис­следователем как информационно-коммуникационный.

Коммуникация, происходящая между людьми, то есть в обществе, называется социальной. В процессе социальной коммуникации передается социальная информация. Иначе го­воря, социальная информация это такая информация, которая функционирует в обществе, когда коммуникатора­ми, то есть лицами, находящимися в коммуникационном взаи­модействии, являются люди.

«Нооинформация» — это информация, которая создается, передается и принимается человеческим разумом. То есть в случае передачи (приема) нооинформации речь идет о комму­никации между людьми. Следовательно, «нооинформация» — это синоним понятия «социальная информация».

Назначение (конечная цель)

Рис. 2.1. Общая схема коммуникационной системы

Примечание: Стрелками показано движение информации (сигналов) и влияние на нее со стороны разных препятствий (от источника шума).

Теория информации К. Шеннона.

Дата добавления: 2015-06-12 ; просмотров: 5701 ; Нарушение авторских прав

В 40-е гг. прошлого столетия американский ученыйК. Шеннон, специализировавшийся в вопросах пропускной способности каналов связи и кодирования сообщений, придал мере количества информации более универсальную форму: количество информации стало пониматься как величина энтропии, на которую уменьшается общая энтропия системы в результате получения этой системой информации. Формула эта выражает энтропию через сумму целого ряда вероятностей, помноженных на их логарифмы, и относится только к энтропии (неопределенности) сообщения.

Читайте также:  Введение в офтальмологию основные сведения по анатомии и физиологии органа зрения

Энтропия – количественная мера неопределённости, снимаемой при получении ниформации.

Иными словами, информативность сообщения обратно пропорциональна его очевидности, предсказуемости, вероятности: чем менее предсказуемо, неочевидно и маловероятно сообщение, тем больше информации оно несет для получателя. Совершенно очевидное (с вероятностью, равной 1) сообщение столь же пусто, сколь полное отсутствие такового (т. е. сообщения, вероятность которого заведомо равна 0). Оба они, согласно допущению Шеннона, неинформативны, не несут получателю никакой информации. По ряду причин, относящихся к математике и связанных с удобствами формализации, энтропия сообщения описывается Шенноном как функция распределения случайных величин.

Статья «Математическая теория связи», была опубликована в 1948 году и сделала Клода Шеннона всемирно известным. В ней Шеннон изложил свои идеи, ставшие впоследствии основой современных теорий и техник обработки передачи и хранения информации. Результаты его работ в области передачи информации по каналам связи запустили по всему миру огромное число исследований. Шеннон обобщил идеи Хартли и ввел понятие информации, содержащейся в передаваемых сообщениях. В качестве меры информации передаваемого сообщения М, Хартли предложил использовать логарифмическую функцию . Шеннон первым начал рассматривать передаваемые сообщения и шумы в каналах связи с точки зрения статистики, рассматривая как конечные множества сообщений, так и непрерывные множества сообщений.

Развитая Шенноном теория информации помогла решить главные проблемы, связанные с передачей сообщений, а именно: устранить избыточность передаваемых сообщений, произвести кодирование и передачу сообщений по каналам связи с шумами.

Решение проблемы избыточностиподлежащего передаче сообщения позволяет максимально эффективно использовать канал связи. К примеру, современные повсеместно используемые методы снижения избыточности в системах телевизионного вещания на сегодняшний день позволяют передавать до шести цифровых программ коммерческого телевидения, в полосе частот, которую занимает обычный сигнал аналогового телевидения.

Решение проблемы передачи сообщения по каналам связи с шумами при заданном соотношении мощности полезного сигнала к мощности сигнала помехи в месте приема, позволяет передавать по каналу связи сообщения со сколь угодно малой вероятностью ошибочной передачи сообщения. Также, это отношение определяет пропускную способность канала. Это обеспечивается применением кодов, устойчивых к помехам, при этом скорость передачи сообщений по данному каналу должна быть ниже его пропускной способности.

Понятие информации в науке и биологии

Научные характеристики информации подтверждают Сотворение

Понятие информации, кратко об этом

Энергия и материя считаются основными универсальными величинами. Тем не менее, понятие информации стало фундаментальным и широко распространенным, подтверждая ее категоризацию как третей фундаментальной величины. Одной из присущих характеристик жизни является информация. Точный анализ характеристик информации показывает, что живые существа в действительности отражают как разум, так и волю их Творца.

Информация контролирует нас повсюду, как в технологических, так и в естественных системах: в обработке данных, в технической связи, в технике регулирования, в естественных языках, в биологических коммуникационных системах, и в информационных процессах живых клеток. Итак, информация по праву стала известной как третья фундаментальная, универсальная величина. Наряду с быстрыми развитиями в компьютерной технологии, новое направление исследования – информационная наука – достигло такой важности, которую вряд ли можно было бы предвидеть два или три десятилетия назад. Вдобавок, информация стала междисциплинарным понятием бесспорной центральной важности к таким отраслям как технология, биология и лингвистика. Концепция информации, следовательно, требует основательного обсуждения, в особенности ее определения, с пониманием ее основных характерных особенностей, и введение эмпирических принципов. Эта статья намерена сделать свой вклад в данную дискуссию.

Понятие информации: статистическое исследование.

Со своей статьей (1948) под названием «Математическая теория коммуникации» Клод E. Шеннон был первым, кто разработал математическое определение понятия информации. Его измерение информации, которое приведено в битах (двоичная единица информации), обладало преимуществом, позволяя делать количественные утверждения о взаимоотношениях, которые раньше не поддавались точному математическому описанию. У этого метода есть очевидный недостаток, тем не менее: информация, по словам Шеннона, не имеет отношения к качественной природе данных, но сводится к одному особенному аспекту, который является особенно важным для технологической передаче и сбережении информации. Шеннон полностью игнорирует то, является ли текст значимым, постижимым, правильным, неправильным или незначимым. Также исключаются важные вопросы о том, откуда выходит информация (отправитель) и кому она направлена (получатель). Что касается концепции информации Шеннона, то вообще неважно, представляют ли ряды букв исключительно важный и значимый текст, или же он возник вследствие бросания костей.

Да, хотя это может звучать парадоксально, с точки зрения теории информации, беспорядочная последовательность букв обладает максимальным информационным содержанием, в то время как тексту такой же длины, но лингвистически значимому, приписывается меньшее значение. Определение информации, согласно Шеннону, ограничивается только одним аспектом информации, а именно ее свойством выражать что-то новое: информационное содержание определяется в терминах новизны. Это не означает новую идею, новую мысль или новую порцию информации – это вовлекало бы семантический аспект – но относится только к эффекту большего удивления, обусловленного менее распространенным символом. Информация становится мерой невероятности события. Маловероятному символу, поэтому, приписывается, соответственно, высокое информационное содержание.

Перед тем как источник символов (не источник информации) генерирует символ, существует неопределенность по поводу того, какой конкретно символ появится из доступного запаса символов (например, алфавит). Только после появления символа неопределенность устраняется. По словам Шеннона, применяется следующее: информация – это неопределенность, которая устраняется появлением конкретного символа. Так как Шеннона интересует только вероятность возникновения символов, он обращается только к статистическому измерению информации. Его концепция информации сводится к несемантическому аспекту. Согласно Шеннону, информационное содержание определяется таким образом, что должны быть выполнены три условия:

Условие суммирования: должна быть возможность суммировать информационное содержание взаимозависимых символов (или цепочек символов).

Условие вероятности: Информационное содержание, приписываемое символу (или цепочке символов) должно возрастать по мере увеличения уровня неожиданности. Эффект неожиданности малораспространенного символа «z» (маленькая вероятность) больше, чем чаще встречающегося «е» (более вероятный). Отсюда следует, что информационное содержание символа должно увеличиваться по мере того, как его вероятность уменьшается. Этот принцип рассматривает информацию как что-то количественное.

Бит как единица информации: в наиболее простом случае, когда набор символов состоит только из двух символов, которые, более того, встречаются с одинаковой частотой, то информационное содержание одного из этих символов должно определяться единицей в 1 бит. Следующий эмпирический принцип можно вывести из этого:

Теорема 1: Статистическое информационное содержание цепи символов является количественным понятием. Оно предоставляется в битах (двоичная единица информации).

Согласно определению Шеннона, информационное содержание одной единицы информации (единица информации в этом контексте означает только символ, знак, слог или слово) является измерением неопределенности, существовавшей до получения информации. Так как вероятность ее возникновения может только принимать значения между 0 и 1, то цифровое значение информационного содержания является всегда позитивной. Информационное содержание множественности единиц информации (например, знаков) вытекает (согласно условию суммирования) из прибавления содержания индивидуальных единиц информации. Это порождает важную характеристику информации:

Теорема 2: Cогласно теории Шеннона, нарушенный сигнал, в основном, содержит больше информации, чем ненарушенный, потому что по сравнению с ненарушенной передачей, он происходит от большего количества возможных альтернатив.

Теория Шеннона также утверждает, что информационное содержание увеличивается непосредственно с количеством символов. Как нецелесообразно такая связь описывает информационное содержание, становится очевидным из следующей ситуации: Если кто-то использует большое количество слов для того, чтобы, в принципе, ничего не сказать, тогда, согласно Шеннону, в связи с большим количеством букв, этому высказыванию предписывается большое информационное содержание, в то время как высказыванию другого человека, который умеет выражаться вкратце, предписывается очень маленькое количество информационного содержания.

Более того, в уравнении информационного содержания теория Шеннона использует фактор энтропии, чтобы учитывать разную частоту распределения букв. Энтропия представляет обобщенную, но специфическую характеристику использованного языка. Язык с одним и тем же количеством символов (напр., языки, которые используют латинский алфавит) будет иметь большую энтропию, чем другой язык, если частота распределения ближе к равномерному распределению. Энтропия достигает максимума при крайне равномерном распределении.

Понятие информации, символы

Если отдельные символы длинной последовательности символов имеют не одинаковую вероятность (напр., текст), особенный интерес представляет среднее информационное содержание для каждого символа в его последовательности, а также среднее значение всего языка. Когда эта теория применяется к разным кодовым системам, то среднее информационное содержание для одного символа будет следующим:

В германском языке: I = 4.113 бит/буква

В английском языке: I = 4.046 бит/буква

В двоичной системе: I = 1 бит/цифра

В десятичной системе: I = 3.32 бит/цифра

В молекуле ДНК: I = 2 бит/нуклеотид

Понятие информации, наиболее высокая ее плотность.

Наиболее высокая известная плотность информации — та, что находится в ДНК (дезоксирибонуклеиновая кислота) молекулах живых клеток. Этот химический носитель данных всего 2 нм в диаметре и с шагом спирали 3.4 нм (смотрите рис. 1). Это обеспечивает объем 10.68 x 10 -21 cm 3 на виток. Каждый виток содержит 10 химических букв (нуклеотидов), что обеспечивает объемную плотность информации 0.94 x 10 21 букв/см 3 . В генетическом алфавите молекулы ДНК содержат только 4 нуклеотидные основы, т.е. аденин, тимин, гуанин и цитозин. Информационное содержание такой буквы составляет 2 бит/нуклеотид. Итак, статистическая информационная плотность — 1.88 x 10 21 бит/см 3 .

Рисунок 1. Молекула ДНК – это универсальный носитель информации в естественных системах. Короткий сегмент нити двойной спирали с сахаро-фосфатной цепочкой проявляет свою химическую структуру (слева). Схематическая репрезентация двойной спирали (справа) показывает основные пары, соединенные водородными связями (в плоскости, перпендикулярной к спиральной оси).

Протеины являются основными веществами, которые составляют живые организмы. К ним принадлежат такие важные вещества как ферменты, иммуноглобулины, гемоглобины и гормоны. Они одинаково органичные и видоспецифические. Только в человеческом теле имеется более 50 000 различных протеинов, выполняющих важные функции. Их структуры должны быть закодированы также эффективно, как и химические процессы в клетках, в которых должен проходить процесс синтеза в требуемом количестве и в соответствии с оптимизированной технологией. Известно, что все протеины, которые существуют в живых организмах, составляются из 20 разных элементов (аминокислот).

Точная последовательность этих составных элементов является исключительно важной для жизни и, следовательно, должны быть тщательно определяемы. Это достигается с помощью генетического кода. Теория информации Шеннона делает возможным определение наименьшего количества букв, которые должны объединиться, чтобы сформирования слова для однозначной идентификации аминокислот. С 20 аминокислотами среднее информационное содержание составляет 4.32 бит/аминокислоту. Если слова составлены из двух букв (дублеты), с 4 бит/слово, то они содержат очень мало информации. Квартеты имели бы 8 бит/слово и были бы очень сложными. Согласно информационной теории, слова из трех букв (триплеты), имея 6 бит/слово, являются достаточными и, следовательно, наиболее экономичным методом кодирования. Бинарное кодирование двумя химическими буквами также, в принципе, возможно. Это, тем не менее, потребовало бы квинтета для представления каждой аминокислоты, и было бы на 60% менее экономным, чем использование триплетов.

Понятие информации, ее носители.

Рисунки 1, 2, 3 показывают три разные технологии хранения информации: молекула ДНК, оперативная память и микрочип. Давайте рассмотрим все это.

Оперативная память: раньше оперативная память могла хранить 4,096 битов в области 6,400 мм 2 (см. рисунок 2). Это соответствует области хранения памяти 0.64 бит/мм 2

С оперативной памятью диаметром 1.24 мм (объем хранения 7,936 мм 3 ), получается плостность объемного хранения 0.52 бит/мм 3

Рисунок 2. Деталь матрицы запоминающего устройства TR440 (производитель Computer Gesellschaft Konstanz).

1-Mbit DRAM (динамическое ОЗУ): прогрессивный прыжок от запоминающего устройства на магнитных сердечниках к полупродниковой памяти выражается в удивительных цифрах плотности хранения, современный 1-Mbit DRAMs (см. Рис. 3) позволяет хранить 1 048 576 бит в области примерно 50 мм2 , что соответствует плотности площади хранения памяти в 21 000 бит/мм 2 . С толщиной примерно 0.5 мм мы получаем плотность объемного хранения 42000 бит/мм 3 . В плотности площади хранения информации мега чип превзошел ЗУ на магнитных сердечниках в 32800 раз, а в показатели объемной плотности — в 81 000 раз.

Рисунок 3. 1-Mbit DRAM – динамическая память с произвольной выборкой – для 1,048,576 бит.

Молекула ДНК: носителями генетической информации, которые осуществляют свои биологические функции на протяжении всей своей жизни, являются нуклеиновые кислоты. Все клеточные организмы и многие вирусы используют ДНК, одинаково свернутые для образования двойных спиралей; оставшиеся вирусы используют однонитевые рибонуклеиновые кислоты РНК. Рисунки, полученные от сравнения с устройствами хранения, созданные человеком, являются как раз астрономическими, если включить молекулу ДНК (см. Рис.1). В этом супер сберегательном устройстве плостность хранения используется до физико-химического предела: ее величина для молекулы ДНК составляет в 45 x 10 12 раз больше, чем плотность хранения в мега чипе. Что объясняет таукую огромную разницу в 45 триллионов между технологией СБИС и естественными системами? Существует три бесспорных причины:

  1. Молекула ДНК использует настоящую технологию объемного хранения, в то время как хранение в компьютерных устройствах направлено на площадь. Даже если структуры чипов вмещают несколько слоев, их элементы хранения обладают только двумерной ориентацией.
  2. Теоретически, одной единственной молекулы достаточно для того, чтобы представить информационную единицу. Это наиболее экономичная технология была использована в дизайне ДНК. Не смотря на все исследования в области миниатюризации, индустриальная технология все еще находится в пределах макроскопии.
  3. Всего лишь две состояния линии возможны в чипах; это приводит к исключительно бинарным кодам. В молекуле ДНК существует четыре химических символа (см. Рис. 1); это позволяет использование четверичного кода, в котором одно состояние уже представляет 2 бита. Все знания, хранимые в библиотеках мира в настоящее время, оценивается в 10 18 бит. Если бы было возможно сохранить эту информацию в молекуле ДНК, то 1% объема булавочной головки было бы достаточно для этой цели. Если, с другой стороны, эта информация была бы сохранена с помощью мега чипа, нам бы потребовалась бы куча намного больше, чем дистанция между землей и луной.

Понятие информации, ее пять уровней

Концепция информации Шеннона является адекватной для того, чтобы сохранять и передавать данные, но она не годится для понимания качественной природы информации.

Теорема 3: Так как определение информации Шенноном относится исключительно к статистической связи цепочек символов и полностью игнорирует их семантический аспект, то эта концепция никак не подходит к анализу цепочек символов, передающих значение.

Для того чтобы иметь возможность адекватно оценивать информацию и ее обработку в разных системах, живых и неживых, нам нужно расширить концепцию информации за рамки теории Шеннона.

Читайте также:  Определяющая сфера в развитии общества с точки зрения идеалистов

Рис.4 показывает, как может быть представлена информация и пять уровней, необходимые для понимания ее качественной природы.

Рисунок 4. Пять необходимых уровней информации (середина) начинаются со статистики (на самом нижнем уровне). На высшем уровне находятся апобетики (цель).

Уровень1: статистика.

Теория информации Шеннона отлично подходит для понимания статистического аспекта информации. Эта теория позволяет делать количественное описание тех характеристик языков, основанных по своей природе на частотности. Однако не принимается во внимание то, имеет ли цепочка символов значение. Также, вопрос грамматической корректности полностью исключен на этой стадии.

Уровень 2: синтаксис.

В цепочках символов, передающих информацию, связывание между собой символов для образования слов, также как и объединение слов для образования предложений подчиняются особенным правилам, которые для каждого языка основаны на сознательно установленных конвенциях. На синтаксическом уровне нам необходимы символы (кодовая система) для представления информации. Большинство письменных языков используют буквы; тем не менее, широкий диапазон конвенций используется для различных целей: азбука Морзе, иероглифы, семафор, музыкальные ноты, компьютерные коды, генетические коды, танцы полевых пчел, символы запахов в феромоных языках насекомых и движениях рук в языке жестов.

Синтаксис языка, тем не менее, охватывает все правила, согласно которым могут или должны соединяться индивидуальные элементы языка. Синтаксис естественных языков намного сложнее по своей структуре, чем формализированные или машинные языки. Синтаксические правила в формализированных языках должны быть полными и четкими, потому как, например, составитель не имеет возможности обратиться к семантическим размышления программиста. На синтаксическом уровне информации мы можем сформулировать несколько теорем для выражения эмпирических принципов:

Теорема 4: Код является абсолютно необходимым условием для представления информации.

Теорема 5: Задание набора символов основывается на конвенции и представляет собой ментальный процесс.

Область синтаксиса вовлекает следующие вопросы:

  1. Какие комбинации символов есть определенными знаками языка (кода)?
  2. Какие комбинации символов являются определенными словами конкретного языка (лексикон, орфография)?
  3. Как должны расстанавливаться слова относительно друг друга (образование предложения, порядок слов, стиль)? Как они должны соединяться вместе? Как их можно изменить в пределах структуры предложения (грамматика)?

Теорема 6: Как только код полностью определен конвенцией, то такое определение должны строго соблюдать.

Теорема 7: Использованный код должен быть известным как передатчику, так и получателю информации.

Теорема 8: Только те структуры, которые основываются на коде, могут представлять информацию (вследствие Теоремы 4). Это необходимое, но недостаточное, условие для существования информации.

Эти теоремы уже позволяют делать фундаментальные утверждения на уровне кода. Если, например, в любой системе обнаружен основной код, то можно сделать выводы, что система происходит от ментальной концепции.

Уровень 3: семантика.

Цепочки символов и синтаксические правила создают необходимые предварительные условия для представления информации. Решающим аспектом передаваемой части информации, тем не менее, не является выбранный код, размер, количество или форма букв, или метод передачи (письменные, оптические, акустические, электрические, осязательные сигналы), но сообщение, которое оно содержит, что оно сообщает и что обозначает (семантика).

Центральный аспект информации не принимает участия в ее накоплении или передаче. Цена телеграммы не зависит от важности контекста, а только от количества слов. Что является главным, как для отправителя, так и для получателя – это значение. Действительно, именно значение превращает цепочку символов в информационное сообщение. Это природа каждой информации, которая исходит от кого-то или направлена для кого-то. Каждый раз, когда имеет место информационное сообщение, всегда присутствует тот, кто ее передает, и ее получатель. В связи с тем, что информация не может существовать без семантики, мы можем утверждать:

Теорема 9: только то, что содержит семантику, является информацией.

Согласно постоянно цитируемого утверждения Норберта Вьенера, основателя кибернетики и теории информации, информация не может быть физической природы: «Информация – это информация, не материя и не энергия. Никакой материализм, который не в состоянии принять это во внимание, не может выжить на сегодняшний день» .

Исследователь информации в Дортмунде, Вернер Стромбах, подчеркивает нематериалистическую природу информации, когда он определяет ее как «появление порядка на уровне мыслящего сознания» . Семантическая информация, соответственно не поддается механистическому подходу. Соответственно, компьютер – это только «синтаксическое устройство» (Земанек), которое не знает никаких семантических категорий. Следовательно, мы должны учитывать различия между данными и знаниями, между обусловленными алгоритмами отраслями в программе и намеренными решениями, между сравнительными выборками и ассоциациями, определением значений и пониманием значений, между последствиями действий в компьютере и творческим мысленным процессом, накоплением данных и процессом обучения. Компьютер может осуществить первое; в этом его сила, его область применения, но вместе с тем и его пределы. Значение всегда представляет собой интеллектуальные концепции. Поэтому мы можем далее утверждать:

Теорема 10: каждая информация требует, если проследить ее к началу, ментальный источник (отправитель).

Теоремы 9 и 10 в основном соединяют информацию с отправителем (интеллектуальный информационный источник). Понял ли получатель информацию или нет, не изменяет ее наличия. Еще до того, как надписи на египетских обелисках были расшифрованы, они четко рассматривались как информация, так как вполне очевидно, что они не возникли случайно. До открытия Розеттского камня (1799), семантика иероглифов была за пределами понимания современников (получателей), тем не менее, эти символы представляли информацию. Все подходящие формантные устройства (лингвистические конфигурации), которые могут выражать значения (интеллектуальные основы, мысли, емкость понимания) называются языками выражения. Только с помощью языка информация может сохраняться и передаваться посредством носителей информации. Информация сама по себе полностью неизменна, как по отношению к системам передачи (акустические, оптические, электрические), так и по отношении к накопительным системам (интеллект, книга, компьютерная система, магнитная лента). Причина такой постоянности находится в ее нематериалистической природе. Мы различаем разные типы языков:

  1. естественные языки: в настоящее время на земле существует примерно 5100 живых языков.
  2. искусственные или языки жестов: эсперанто, язык жестов, ручная сигнализация, дорожные знаки.
  3. искусственные (формальные) языки: логические и математические расчеты, химические символы, стенография, алгоритмические и программные языки.
  4. специальные языки в отрасли инженерии: планы строения, моделирования, аксонометрия, защитные диаграммы, схемы коммутации в электрической инженерии, гидравлическое и пневматическое оборудование.
  5. специальные языки в живом мире: генетический язык, танец полевых пчел, феромонные языки, гормональные, сигнальная система в паутине паука, язык дельфина, инстинкты (например, полет птиц, миграция осетровых рыб).

Общим для всех языков является то, что формантные устройства используют определенную систему символов, индивидуальные элементы которых оперируют с установленными, совместно согласованными правилами семантического соответствия.

У каждого языка есть знаки (напр., морфемы, лексемы, фразы и целые предложения в естественных языках). Значения – это соотношение между производным словом в пределах языка, которое подразумевает совместное семантическое распределение между отправителем и получателем.

Любой коммуникационный процесс между отправителем и получателем состоит из формулирования и понимания семем (сема=знак) в одном и том же языке. В процессе формулирования мысли отправителя генерируют информацию, которая отправляется с помощью формантного устройства (язык). В процессе понимания, анализируется комбинация символов и рассматривается как соответствующие мысли отправителя.

Уровень 4: прагматика

До уровня семантики, вопрос преследования отправителем цели при рассылке информации, является неважным. Каждая передача информации, тем не менее, выполняется с намерением образовать особенный результат в получателе. Для достижения желаемого результата, отправитель размышляет, каким образом должен быть извещен получатель для удовлетворения заданной цели. Этот намеренный аспект выражается термином прагматика. В языке предложения не просто связаны друг с другом; скорее они представляют формулирование просьб, жалоб, вопросов, расспрашиваний, инструкций, предупреждений, угроз и указаний, которые намерены вызвать специфическое действие в получателе. Стромбах определяет информацию, как структуру, которая образует изменения в системе получения. Этим самым он подчеркивает важность аспекта действия. С целью покрытия широкого выбора типов действия, мы можем различать:

  1. Образы действия без любой степени свободы (строгие, неизменимые, четкие, контролированные программой), такие как компьютерные программы, машинные переводчики естественных языков, механизированные производственные операции, развитие биологических клеток, функционирование органов;
  2. Образы действия с ограниченной степенью свободы, такие как перевод людьми естественных языков и инстинктивные действия (примеры поведения в царстве животных);
  3. Образы действия с максимальной степенью свободы (гибкие, творческие, оригинальные), например, приобретенные поведения (общественные манеры, действия, связанные с мастерством), причинные, интуитивные и интеллектуальные действия, основанные на свободной воле.

Все эти образы действий со стороны получателя, неизменно основанные на информации, которая раньше была смоделирована отправителем для преднамеренной цели.

Уровень 5: апобетика

Конечным и самым высоким уровнем информации есть цель. Понятие апобетики было представлено по этой причине с помощью лингвистической аналогии с предыдущими определениями. Результат в конце получение основан на завершающем этапе цели, стремлении, плане и моделировании. Апобетический аспект информации является наиболее важным, так как он исследует цели, преследуемые отправителем. Можно задать следующие вопросы по поводу всех частей информации: Зачем вообще отправитель передает эту информацию? Какой результат он ожидает получить от получателя? Следующие примеры намерены глубже рассмотреть этот аспект:

  1. Компьютерные программы по своему дизайну являются целевыми (например, разрешение системы уравнения, изменения моделей, служебных программ).
  2. Своей песней птица-самец хотела бы завоевать внимание птицы-самки или претендовать на конкретную территорию.
  3. Рекламным лозунгом для моющих средств производители хотели бы переубедить получателей информации сделать решение в пользу их продукции.
  4. Люди наделены даром к естественным языкам; таким образом, они легко могут вступить в разговор и формулировать свои цели.

Теперь мы можем сформулировать следующие теоремы:

Теорема 11: апобетический аспект информации является наиболее важным, так как он охватывает намерения отправителя. Полное усилие, вовлеченное в четыре нижних уровня, необходимо только как способ завершения для достижения этого намерения.

Теорема 12: пять аспектов информации применяются как к сторонам отправителя и передатчика. Они всегда влекут за собой взаимодействие отправителя и получателя (см. рис.4).

Теорема 13: Индивидуальные аспекты информации соединенные друг с другом таким образом, что нижние уровни всегда необходимы для реализации высших уровней.

Теорема 14: апобетический аспект иногда может полностью совпадать с прагматическим аспектом. Однако в принципе могут разделяться.

Завершив это рассмотрение, мы можем сформулировать условия, которые разрешают различать понятия информации и неинформации. Два необходимых условия (НУ: выполняется сразу же) должны быть удовлетворены, чтобы информация существовала.

НУ 1: должна существовать кодовая система.

НУ2: цепочка символов должна содержать семантику.

Достаточными условиями (ДУ) для существования информации являются:

ДУ 1: должна быть возможность различать скрытые намерения на уровнях семантики, прагматики и апобетики (напр., Карл фон Фриш сделал анализ танца полевых пчел и в соответствии с нашей моделью, установлены уровни семантики, прагматики и апобетики. В этом случае информация определенно присутствует).

ДУ 2: последовательность символов не представляет информации, если она основывается на хаотичности. Согласно Дж. Дж. Чайтину, американскому специалисту по информатике, хаотичность, в принципе, нельзя доказать; следовательно, в этом случае необходимо обсуждение причины происхождения. Изложенные теоремы не только играют роль в технологическом применении, но они также охватывают всю информацию, которая возникает (напр., компьютерная технология, лингвистика, живые организмы).

Понятие информации в живых организмах.

Жизнь существует в исключительном многообразии форм. Несмотря на свою кажущуюся простоту, даже одноклеточные организмы являются более сложными и целеустремленными в своем дизайне, чем любой другой продукт человеческого изобретения. Несмотря на то, что материя и энергия — необходимые, фундаментальные особенности жизни, они не подразумевают в себе основное различие между воодушевленными и невоодушевленными системами. Одной из главных характеристик всех живых организмов является информация, которую они содержат для всех операционных процессов (исполнение всех функций жизни, генетическая информация для размножения). Брайтенберг, немецкий кибернетик предоставил свидетельство того, что «информация является неотъемлемой важной частью сущности жизни» . Передача информации играет значительную роль во всем, что живет. Когда насекомые переносят пыльцу из созревших цветов, передается (генетическая) информация. Материя, вовлеченная в этот процесс, не является такой важной.

Нет сомнения, что наиболее сложная информационная система, которая существует, это человеческое тело. Если мы соберем все человеческие информационные процессы вместе, а именно, сознательные (язык, информационно-контролируемые функции в органах, гормональная система), то каждый день это влечет за собой процессы объемом 10 24 бита. Такая астрономически высокая цифра еще в 1 00 ,000 раз больше, чем общие человеческие знания размеров 10 18 бит, хранимые во всех мировых библиотеках.

Понятие информации, ее концепция

На основе информационной теории Шеннона, которая сейчас рассматривается как математически завершенная, мы расширили понятие информации до пяти уровней. Наиболее важные эмпирические принципы, относящиеся к понятию информации, были определены в форме теорем. Здесь их краткое содержание:

  1. никакая информация не может существовать без кода.
  2. никакой код не может существовать без свободного и умышленной конвенции.
  3. никакая информация не может существовать без пяти иерархических уровней: статистики, синтаксиса, семантики, прагматики и апобетики.
  4. никакая информация не может существовать в чисто статистических процессах.
  5. никакая информация не может существовать без отправителя.
  6. никакая информационная цепочка не может существовать без интеллектуального источника.
  7. никакая информационная цепочка не может существовать без изначального ментального источника, т.е., информация, по своей сути, есть ментальным, а не материальным явлением.
  8. никакая информация не может существовать без воли.

Библия давно ясно учит, что сотворение основных групп полностью действующих живых существ, запрограммированных для передачи информации свом наследникам, было намеренным действием разума и желания Создателя, великого Слова Иисуса Христа. Мы уже показали, что жизнь полностью нагружена информацией; должно быть ясно, что строгое применение науки об информации является разрушительным для материалистической философии под маской эволюции и сильно поддерживает сотворение книги Бытия. 2

Примечания:

  1. этот документ представил только качественное обозрение высших уровней информации. Количественное обозрение все еще находиться среди множества заданий, которые нужно выполнить. Вернуться к тексту.
  2. этот документ переработан из документа под названием «Информация: третье фундаментальное явление», которые было опубликовано в ноябре/декабре 1989 издательством Siemens Review (том 56, №6). Вернуться к тексту.

Профессор Вернер Гитт окончил в 1968 году в Ганновере, Германия, Технический Университет с дипломом инженера, затем закончил необходимое исследование в работе над Докторской диссертацией по инженерии в Техническом Университете Аахена, закончив с отличием и с престижной наградой «Borchers Medal». С 1971 года работал в Немецком федеративном институте физики и технологии, Брансуик, в качестве Директора по обработке данных, а с 1978 директором и профессором института.

Источники:
  • http://otherreferats.allbest.ru/programming/00156219_0.html
  • http://studfiles.net/preview/5226491/page:8/
  • http://life-prog.ru/2_18547_teoriya-informatsii-k-shennona.html
  • http://www.origins.org.ua/page.php?id_story=712