Меню Рубрики

С содержательной точки зрения информация это

Подходы к понятию информации и измерению информации.

Термин информация имеет множество определений. «Информация» происходит от латинского слова «informatio», что означает разъяснение, изложение, осведомление. Информация всегда представляется в виде сообщения. Сообщение – это форма представления каких-либо сведений в виде речи, текста, изображения, цифровых данных, графиков, таблиц и т.д. В широком смысле информация – это сведения, совокупность каких-либо данных, знаний. Наряду с понятие информация в информатике часто употребляется понятие данные. Данные – это результаты наблюдений над объектами и явлениями, которые по каким-то причинам не используются, а только хранятся. Как только данные начинают использовать в каких-либо практических целях, они превращаются в информацию.

1. По отношению к окружающей среде:

2. По способам восприятия:

3. По форме представления для персонального компьютера:

· полнота – наличие достаточных сведений;

· актуальность – степень соответствия информации текущему моменту времени;

· достоверность – насколько информация соответствует истинному положению дел;

· ценность – насколько информация важна для решения задачи;

· точность – степень близости к действительному состоянию объекта, процесса, явления;

· понятность – выражение информации на языке, понятном тем, кому она предназначена.

Важным вопросом является измерение количества информации. Как понять, сколько информации мы получили в том или ином сообщении? Разные люди, получившие одно и то же сообщение, по-разному оценивают его информационную ёмкость, то есть количество информации, содержащееся в нем. Это происходит оттого, что знания людей о событиях, явлениях, о которых идет речь в сообщении, до получения сообщения были различными. Поэтому те, кто знал об этом мало, сочтут, что получили много информации, те же, кто знал больше, могут сказать, что информации не получили вовсе. Количество информации в сообщении, таким образом, зависит от того, насколько ново это сообщение для получателя.

В таком случае, количество информации в одном и том же сообщении должно определяться отдельно для каждого получателя, то есть иметь субъективный характер. При этом нельзя объективно оценить количество информации, содержащейся даже в простом сообщении. Поэтому, когда информация рассматривается как новизна сообщения для получателя (бытовой подход), не ставится вопрос об измерении количества информации.

Существует три основные интерпретации понятия «информация».
Научная интерпретация. Информация — исходная общенаучная категория, отражающая структуру материи и способы ее познания, несводимая к другим, более простым понятиям.
Абстрактная интерпретация. Информация — некоторая последовательность символов, которые несут как вместе, так в отдельности некоторую смысловую нагрузку для исполнителя.
Конкретная интерпретация. В данной плоскости рассматриваются конкретные исполнители с учетом специфики их систем команд и семантики языка. Так, например, для машины информация — нули и единицы; для человека — звуки, образы, и т.п.

Можно выделить следующие подходы к определению информации:

Традиционный (обыденный)— используется в информатике:

Информация– это сведения, знания, сообщения о положении дел, которые человек воспринимает из окружающего мира с помощью органов чувств (зрения, слуха, вкуса, обоняния, осязания).

Вероятностный — используется в теории об информации: Информация– это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.

Для человека: Информация – это знания, которые он получает из различных источников с помощью органов чувств.

Вся информация, которую обрабатывает компьютер, представлена двоичным кодом с помощью двух цифр – 0 и 1. Эти два символа 0 и 1 принято называть битами (от англ. binary digit – двоичный знак). Бит– наименьшая единица измерения объема информации.

Таблица 1. Единицы измерения информации.

Название Усл. обозн. Соотношение
Байт Байт 1 байт = 2 3 бит = 8 бит
Килобит Кбит 1Кбит = 2 10 бит = 1024 бит
КилоБайт Кб 1 Кб = 2 10 байт = 1024 байт
МегаБайт Мб 1 Мб = 2 10 Кб = 1024 Кб
ГигаБайт Гб 1 Гб = 2 10 Мб = 1024 Мб
ТераБайт Тб 1 Тб = 2 10 Гб = 1024 Гб

Вопрос: «Как измерить информацию?» очень непростой. Ответ на него зависит от того, что понимать под информацией. Но поскольку определять информацию можно по-разному, то и способы измерения тоже могут быть разными.

В информатике используются различные подходы к измерению информации:

Содержательный подход к измерению информации.

Сообщение, уменьшающее неопределенность знаний человека в два раза, несет для него 1 бит информации.

Количество информации, заключенное в сообщении, определяется по формуле Хартли:

2. Алфавитный (технический) подход к измерению информации— основан на подсчете числа символов в сообщении.

Если допустить, что все символы алфавита встречаются в тексте с одинаковой частотой, то количество информации, заключенное в сообщениивычисляется по формуле:

Ic – информационный объем сообщения

К – количество символов

N – мощность алфавита (количество символов)

i — информационный объем 1 символа

2. Информационные объекты различных видов.

Мы живем в реальном мире, окруженные разнообразными материальными объектами. Наличие информации об объектах реального мира порождает другой мир, неотделимый от сознания конкретных людей, где существует только информация. Этому миру мы даем разнообразные названия. Одно из таких названий — информационная картина мира.

Познание реального мира происходит через информационную картину мира. Человек формирует собственное представление о реальном мире, получая и осмысливая информацию о каждом реальном объекте, процессе или явлении. При этом у каждого человека существует своя информационная картина мира, которая зависит от множества факторов как субъективного, так и объективного порядка. Конечно, большую роль здесь играет уровень образованности человека. Информационные картины мира у школьника, студента и преподавателя будут существенно различаться. Чем объемнее и разнообразнее информация, которую может воспринять человек, тем более красочной получается эта картина. Так, например, информационная картина мира у ребенка совсем не такая, как у его родителей.

Один из способов познания реального мира — это моделирование, которое прежде всего связано с отбором необходимой информации и построением информационной модели. Однако любая информационная модель отражает реальный объект только в ограниченном аспекте — в соответствии с поставленной человеком целью. Отсюда и возникает определенная «ущербность» восприятия мира, если человек изучает его только с одной стороны, определяемой одной целью. Всестороннее познание окружающего мира возможно только тогда, когда существуют разные информационные модели, соответствующие разным целям.

Предположим, мы создали несколько информационных моделей для одного объекта реального мира. Их количество определяется количеством заданных целей. Например, информационные модели нашей планеты у школьника, астронома, метеоролога и геодезиста будут существенно различаться, так как у них разные цели, а значит, и информация, отобранная ими и положенная в основу информационной модели, будет разной.

При разработке модель постоянно сопоставляется с объектом-прототипом для оценки ее соответствия оригиналу.

Что же произойдет, если мы будем иметь дело только с информационными моделями, отстранившись от реального мира? В этом случае отпадает необходимость в понятии адекватности, так как, устранив объект, мы тем самым разорвем виртуальную связь, устанавливающую объектно-модельное отношение. А это значит, что мы полностью погрузимся в виртуальный, несуществующий мир, где циркулирует только информация. Сравнивать модель будет не с чем, а значит, отпадет необходимость в самом моделировании.

Таким образом, модель превращается в некий самостоятельный объект, который представляет собой совокупность информации.

Вспомнив понятие объекта, которое определяется как некоторая часть окружающего мира, рассматриваемая как единое целое, можно высказать предположение, что информационную модель, которая не имеет связи с объектом-оригиналом, тоже можно считать объектом, но не материальным, а информационным. Таким образом, информационный объект получается из информационной модели путем «отчуждения» информации от объекта-оригинала.

Информационный объект — это совокупность логически связанной информации. Тогда информационный мир будет представлять собой множество разнообразных информационных объектов.

Информационный объект, «отчужденный» от объекта-оригинала, можно хранить на различных материальных носителях. Простейший материальный носитель информации — это бумага. Есть также магнитные, электронные, лазерные и другие носители информации.

С информационными объектами, зафиксированными на материальном носителе, можно производить те же действия, что и с информацией при работе на компьютере: вводить их, хранить, обрабатывать, передавать. Однако технология работы с информационными объектами будет несколько иная, нежели с информационными моделями. Создавая информационную модель, мы определяли цель моделирования и в соответствии с ней выделяли существенные признаки, делая акцент на исследовании. В случае с информационным объектом мы имеем дело с более простой технологией, так как никакого исследования проводить не надо. Здесь вполне достаточно традиционных этапов переработки информации: ввода, хранения, обработки, передачи.

При работе с информационными объектами большую роль играет компьютер. Используя возможности, которые предоставляют пользователю офисные технологии, можно создавать разнообразные профессиональные компьютерные документы, которые будут являться разновидностями информационных объектов. Все, что создается в компьютерных средах, будет являться информационным объектом.

Литературное произведение, газетная статья, приказ — примеры информационных объектов в виде текстовых документов.

Рисунки, чертежи, схемы — это информационные объекты в видеографических документов.

Ведомость начисления заработной платы, таблица стоимости произведенных покупок в оптовом магазине, смета на выполнение работ и прочие виды документов в табличной форме, где производятся автоматические вычисления по формулам, связывающим ячейки таблицы, — это примеры информационных объектов в виде электронных таблиц.

Результат выборки из базы данных — это тоже информационный объект.

Довольно часто мы имеем дело с составными документами, в которых информация представлена в разных формах. Такие документы могут содержать и текст, и рисунки, и таблицы, и формулы, и многое другое. Школьные учебники, журналы, газеты — это хорошо знакомые всем примеры составных документов, являющихся информационными объектами сложной структуры. Для создания составных документов используются программные среды, в которых предусмотрена возможность представления информации в разных формах.

Другими примерами сложных информационных объектов могут служить создаваемые на компьютере презентации и гипертекстовые документы. Презентацию составляет совокупность компьютерных слайдов, которые обеспечивают не только представление информации, но и ее показ по заранее созданному сценарию. Гипертекстом может быть назван документ, в котором имеются гиперссылки на другие части этого же документа или другие документы.

Не нашли то, что искали? Воспользуйтесь поиском:

Лучшие изречения: Как то на паре, один преподаватель сказал, когда лекция заканчивалась — это был конец пары: «Что-то тут концом пахнет». 7656 — | 7304 — или читать все.

193.124.117.139 © studopedia.ru Не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования. Есть нарушение авторского права? Напишите нам | Обратная связь.

Отключите adBlock!
и обновите страницу (F5)

очень нужно

Читайте также:

  1. A. Организационно-формальный подход.
  2. C. Социально-психологический подход.
  3. I. Сбор исходной информации
  4. III. Подходы к оценке интеллектуальной собственности.
  5. Автоматизированные консультативные системы для помощи в принятии решений на основе интеллектуального (экспертного) подхода
  6. Административно-правовой подход к понятию муниципального управления
  7. Акмеологический подход к проблемам профессионального развития человека
  8. Аксиологический и антропологический подходы к культуре
  9. Активный маркетинг характеризуется прямым контактом с клиентом или источником информации, проведение презентаций, конференций, личное общение, анкетирование и опрос населения.
  10. Алгоритм создания тренинга по технологичному подходу
  11. Альтернативные подходы к пониманию культурно-исторического процесса
  12. Анализ информации о географических сегментах деятельности, сформировавшихся по месту расположения рынков сбыта

Методические рекомендации по изучению темы

ª От чего зависит информативность сообщения, принимаемого человеком.

ª Единица измерения информации.

ª Количество информации в сообщении об одном из 7V равновероятных событий.

С позиции содержательного подхода просматривается следующая цепочка понятий: информация — сообщение — информативность сообщения — единица измерения информации — информационный объем сообщения.

Исходная посылка: информация — это знания людей. Следующий вопрос: что такое сообщение? Сообщение — это информационный поток, который в процессе передачи информации поступает к принимающему его субъекту. Сообщение — это и речь, которую мы слушаем (радиосообщение, объяснение учителя), и воспринимаемые нами зрительные образы (фильм по телевизору, сигнал светофора), и текст книги, которую мы читаем и т.д.

Вопрос об информативности сообщения следует обсуждать на примерах, предлагаемых учителем и учениками. Правило: информативным назовем сообщение, которое пополняет знания человека, т. е. несет для него информацию. Для разных людей одно и то же сообщение, с точки зрения его информативности, может быть разным. Если сведения «старые», т. е. человек это уже знает, или содержание сообщения непонятно человеку, то для него это сообщение неинформативно. Информативно то сообщение, которое содержит новые и понятные сведения.

Читайте также:  Как в домашних условиях узнать зрение

Нельзя отождествлять понятия «информация» и «информативность сообщения». Следующий пример иллюстрирует различие понятий. Вопрос: «Содержит ли информацию вузовский учебник по высшей математике с точки зрения первоклассника?». Ответ: «Да, содержит с любой точки зрения! Потому что в учебнике заключены знания людей: авторов учебника, создателей математического аппарата (Ньютона, Лейбница и др.), современных математиков». Эта истина — абсолютна. Другой вопрос: «Будет ли информативным текст этого учебника для первоклассника, если он попытается его прочитать? Иначе говоря, может ли первоклассник с помощью этого учебника пополнить собственные знания?» Очевидно, что ответ отрицательный. Читая учебник, т.е. получая сообщения, первоклассник ничего не поймет, а стало быть, не обратит его в собственные знания.

При объяснении этой темы можно предложить ученикам поиграть в своеобразную викторину. Например, учитель предлагает детям перечень вопросов, на которые они молча записывают ответы на бумагу. Если ученик не знает ответа, он ставит знак вопроса. После этого учитель дает правильные ответу на свои вопросы, а ученики, записав ответы учителя, отмечают, какие из них оказались для них информативными (+), какие — нет (—). При этом для сообщений, отмеченных минусом, нужно указать причину отсутствия информации: не новое (это я знаю), непонятное. Например, список вопросов и ответы одного из учеников могут быть следующими.

Вопрос учителя Ответ ученика Информативность сообщения Причина неинформативности
1. Какой город является столицей Франции Столица Франции — Париж Столица Франции — Париж Не новое
2.4-го изучает коллоидная химия Коллоидная химия изучает дисперсионные состояния систем, обладающих высокой степенью раздробленности Непонятное
3. Какую высоту и вес имеет Эйфелева башня? Эйфелева башня имеет высоту 300 метров и вес 9000 тонн. +

Введение понятия «информативность сообщения» является первым подходом к изучению вопроса об измерении информации в рамках содержательной концепции. Если сообщение неинформативно для человека, то количество информации в нем, с точки зрения этого человека, равно нулю. Количество информации в информативном сообщении больше нуля.

Для определения количества информации нужно ввести единицу измерения информации. В рамках содержательного подхода такая единица должна быть мерой пополнения знаний субъекта; иначе можно еще сказать так: мерой уменьшения степени его незнания. В учебнике [26] дано следующее определение единицы информации: «Сообщение, уменьшающее неопределенность знаний в 2 раза, несет 1 бит информации». Немного дальше приводится определение для частного случая: «Сообщение о том, что произошло одно событие из двух равновероятных, несет 1 бит информации».

Определение бита — единицы измерения информации может оказаться сложным для понимания учениками. В этом определении содержится незнакомое детям понятие «неопределенность знаний». Прежде всего нужно раскрыть его. Учитель должен хорошо понимать, что речь идет об очень частном случае: о сообщении, которое содержит сведения о том, что произошло одно из конечного множества (N) возможных событий. Например, о результате бросания монеты, игрового кубика, вытаскивания экзаменационного билета и т. п. Неопределенность знания о результате некоторого события — это число возможных вариантов результата: для монеты — 2, для кубика — 6, для билетов — 30 (если на столе лежало 30 билетов).

Еще одной сложностью является понятие равновероятности. Здесь следует воспользоваться интуитивным представлением детей, подкрепив его примерами. События равновероятны, если ни одно из них не имеет преимущества перед другими. С этой точки зрения выпадения орла и решки — равновероятны; выпадения каждой из шести граней кубика — равновероятны. Полезно привести примеры и неравновероятных событий. Например, в сообщении о погоде в зависимости от сезона сведения о том, что будет дождь или снег могут иметь разную вероятность. Летом наиболее вероятно сообщение о дожде, зимой — о снеге, а в переходный период (в марте или ноябре) они могут оказаться равновероятными. Понятие «более вероятное событие» можно пояснить через родственные понятия: более ожидаемое, происходящее чаще в данных условиях. В рамках базового курса не ставится задача понимания учениками строгого определения вероятности, умения вычислять вероятность. Но представление о равновероятных и неравновероятных событиях должно быть ими получено. Ученики должны научиться приводить примеры равновероятных и неравновероятных событий.

При наличии учебного времени полезно обсудить с учениками понятия «достоверное событие» — событие, которое обязательно происходит, и «невозможное событие». От этих понятий можно оттолкнуться, чтобы ввести интуитивное представление о мере вероятности. Достаточно сообщить, что вероятность достоверного события равна 1, а невозможного — 0. Это крайние значения. Значит, во всех других «промежуточных» случаях значение вероятности лежит между нулем и единицей. В частности, вероятность каждого из двух равновероятных событий равна . При углубленном варианте изучения базового курса можно использовать материал, приведенный в подразделе 1.1 «Вероятность и информация» второй части учебника [26].

Возвращаясь к вопросу об измерении количества информации, заключенной в сообщении об одном из N равновероятных событий, предлагаем следующую логическую цепочку раскрытия темы.

Объяснение удобно начать с частного определения бита как меры информации в сообщении об одном из двух равновероятных событий. Обсуждая традиционный пример с монетой (орел — решка), следует отметить, что получение сообщения о результате бросания монеты уменьшило неопределенность знаний в два раза: перед подбрасыванием монеты было два равновероятных варианта, после получения сообщения о результате остался один единственный. Далее следует сказать, что и для всех других случаев сообщений о равновероятных событиях при уменьшении неопределенности знаний в два раза передается 1 бит информации.

Примеры, приведенные в учебнике, учитель может дополнить другими, а также предложить ученикам придумать свои примеры. Индуктивно, от частных примеров учитель вместе с классом приходит к обобщенной формуле: 2 i = N. Здесь N — число вариантов равновероятных событий (неопределенность знаний), а i — количество информации в сообщении о том, что произошло одно из N событий.

Если N— известно, а i является неизвестной величиной, то данная формула превращается в показательное уравнение. Как известно, показательное уравнение решается с помощью функции логарифма: i= log2N. Здесь учителю предоставляются два возможных пути: либо с опережением уроков математики объяснить, что такое логарифм, либо «не связываться» с логарифмами. Во втором варианте следует рассмотреть с учениками решение уравнения для частных случаев, когда N есть целая степень двойки: 2, 4, 8, 16, 32 и т.д. Объяснение происходит по схеме:

Если N = 2 = 2 1 , то уравнение принимает вид: 2 i = 2 1 , отсюда i = 1.

Если N = 4 = 2 2 , то уравнение принимает вид: 2 1 = 2 2 , отсюда i = 2.

Если N = 8 = 2 3 , то уравнение принимает вид: 2 i = 2 3 , отсюда i = 3 и т. д.

В общем случае, если N = 2 k , где k — целое число, то уравнение принимает вид 2 i = 2 k и, следовательно, i = k. Ученикам полезно запомнить ряд целых степеней двойки хотя бы до 2 10 = 1024. С этими величинами им предстоит еще встретиться в других разделах.

Для тех значений N, которые не являются целыми степенями двойки, решение уравнения 2 i = N можно получать из приведенной в учебнике [26] таблицы в §2. Совсем не обязательно говорить ученикам, что это таблица логарифмов по основанию 2. Например, желая определить, сколько же бит информации несет сообщение о результате бросания шестигранного кубика, нужно решать уравнение: 2 i = 6. Поскольку 2 2 3 , то следует пояснить ученикам, что 2

Дата добавления: 2014-12-27 ; Просмотров: 383 ; Нарушение авторских прав? ;

Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет

2. Информация и концепция ее определения.

Слово информация происходит от informatio, означающего сведения, разъяснения, пояснения. С содержательной точки зрения информация- это сведения о ком-то или о чем-то, а с формальной точки зрения- набор знаков и символов.

Информация- это сведения о предмете, явлении, событии, системе и ее состоянии. Т. к. информация является абстрактной и функциональной категорией, такой же как категории материи, энергии и пространства, то она не является исчерпывающей. Поэтому для изучения информации создана философская теория отображения.

Информация возникает при взаимодействии. Взаимодействующие объекты делятся на две категории:

1. объекты, передающие свои свойства, — источники.

2. объекты, отображающие эти свойства, — приемники.

В качестве приемников могут выступать неживая природа и сознание животных и человека.

3. Информационный процесс и его структура.

Информационный процесс – это совокупность операций, связанных со сбором, хранением, передачей, обработкой, поиском и выдачей информации.

В соответствии с этим структура информационного процесса имеет следующий вид:

Канал связи- воздух (речевая информация), колебания, вызванные явлениями природы, работа машин и аппаратов; электрический ток (информация передается по телефонной, телексной связи на расстоянии);эфир (тончайшая материя для передачи радио- и телеколебаний), рентгеновские и световые лучи.

Для хранения информации используются:

1. бумажный информационный процесс;

2. безбумажные информационные процессы, использующие остальные носители.

Основное средство обработки информации- компьютер.

4. Теоретические основы информатики. Свойства информации.

Информация— это сведения о предмете, явлении, событии, системе и ее состоянии. Т. к. информация является абстрактной и функциональной категорией, такой же как категории материи, энергии и пространства, то она не является исчерпывающей. Поэтому для изучения информации создана философская теория отображения.

Информационный процесс – это совокупность операций, связанных со сбором, хранением, передачей, обработкой, поиском и выдачей информации.

Достаточность. Информация считается достаточной, если ее достаточно для понимания и принятия решения.

Доступность информации восприятию пользователя обеспечивается выполнением следующих процедур: получения и преобразования.

Актуальность— это степень сохранения ценности информации для управления в момент ее использования.

Своевременность— это поступление информации не позже заранее назначенного момента.

Точность информации определяется степенью близости получаемой информации к реальному состоянию объекта, процесса, явления.

Достоверность— это свойство отражать реально существующие объекты или события.

Устойчивость информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности.

7. Языки программирования высокого уровня.

Язык высокого уровня [high-level language] — Язык программирования, средства которого обеспечивают описание задачи в наглядном, легко воспринимаемом виде, удобном для программиста. Он не зависит от внутренних машинных кодов ЭВМ любого типа, поэтому программы, написанные на языках высокого уровня, требуют перевода в машинные коды программами транслятора либо интерпретатора. К языкам высокого уровня относят Фортран , ПЛ/1 , Бейсик , Паскаль , Си , Ада, C++, Visual Basic, Java, Python, Ruby, Perl, Delphi (Pascal), PHP.

Языкам высокого уровня свойственно умение работать с комплексными структурами данных. В большинство из них интегрирована поддержка строковых типов, объектов, операций файлового ввода-вывода и т. п.

Первым языком программирования высокого уровня считается компьютерный язык Plankalkul разработанный немецким инженером Конрадом Цузе ещё в период 1942—1946 гг. Однако, широкое применение высокоуровневых языков началось с возникновением Фортрана и созданием компилятора для этого языка (1957).

Ада [Ada] — Язык программирования высокого уровня, ориентированный на применение в системах реального времени и предназначенный для автоматизации задач управления процессами и/или устройствами, например, в бортовых (корабельных, авиационных и др.) ЭВМ. Разработан по инициативе министерства обороны США в 1980-х гг. Назван в честь английского математика Ады Августы Байрон ( Лавлейс), жившей в 1815-1851 гг.

Дартмутском колледже Томасом Куртом и Джоном Кемени . Первоначально предназначался для обучения программированию. Отличается простотой, легко усваивается начинающими программистами благодаря наличию упрощенных конструкций языка Фортран и встроенных математических функций, алгоритмов и операторов. Существует множество различных версий Бейсика, которые не полностью совместимы друг с другом. Некоторые реализации Бейсика включают средства обработки данных и наборов данных. Большинство версий Бейсика используют интерпретатор, который преобразует его компоненты в машинный код и позволяет запускать программы без промежуточной трансляции. Некоторые более совершенные версии Бейсика позволяют использовать для этой цели трансляторы. На IBM PC широко используются Quick Basic фирмы Microsoft, Turbo Basic фирмы Borland и Power Basic (усовершенствованная версия Turbo Basic, распространяемая фирмой Spectra Publishing ). В начале 1999 г. фирма Microsoft выпустила версию языка Visual Basic 6.0 (VB 6.0), предназначенного для создания многокомпонентных программных приложений для систем уровня предприятий. Подробнее о нем см. [429].

Читайте также:  Классификация женщин с точки зрения мужчин

Кобол [COBOL — COmmon Buisiness-Oriented Language] — Язык программирования высокого уровня, разработанный в конце 1950-х гг. ассоциацией КАДАСИЛ для решения коммерческих и экономических задач. Отличается развитыми средствами работы с файлами. Поскольку команды программ, написанных на этом языке, активно используют обычную английскую лексику и синтаксис, Кобол рассматривается как один из самых простых языков программирования. В настоящее время используется для решения экономических, информационных и других задач.

Лисп [LISP — LISt Processing] — Алгоритмический язык, разработанный в 1960 г. Дж. Маккарти и предназначенный для манипулирования перечнями элементов данных. Используется преимущественно в университетских лабораториях США для решения задач, связанных с искусственным интеллектом. В Европе для работ по искусственному интеллекту предпочитают использовать Пролог .

ЛОГО [LOGO от греч. logos — слово ] — Язык программирования высокого уровня, разработан в Массачусетском технологическом институте в ориентировочно 1970 г. для целей обучения математическим понятиям. Используется также в школах и пользователями ПЭВМ при написании программ для создания чертежей на экране монитора и управления перьевым графопостроителем .

Паскаль [PASCAL — акроним с французского — Program Applique a la Selection et la Compilation Automatique de la Litterature] — Процедурно-ориентированный язык программирования высокого уровня, разработанный в конце 1960-х гг. Никлаусом Виртом, первоначально для обучения программированию в университетах. Назван в честь французского математика XVII века Блеза Паскаля. В своей начальной версии Паскаль имел довольно ограниченные возможности, поскольку предназначался для учебных целей, однако последующие его доработки позволили сделать его хорошим универсальным языком, широко используемым в том числе для написания больших и сложных программ. Существует ряд версий языка (например, ETH Pascal, USD Pascal, Turbo Pascal ) и систем программирования на этом языке для разных типов ЭВМ. Для IBM PC наиболее популярной является система Turbo Pascal фирмы Borland (США).

Пролог [PROLOG — PROgramming in LOGic] — Язык программирования высокого уровня декларативного типа (см. выше декларативное программирование), предназначенный для разработки систем и программ Бейсик [BASIC — Beginner’s All-purpose Symbolic Instruction Code] — Язык программирования высокого уровня , разработанный в 1963 — 1964 гг. в искусственного интеллекта. Относится к категории языков пятого поколения. Был разработан в 1971 г. в университете г. Марсель (Франция), относится к числу широко используемых и постоянно развиваемых языков. Последняя его версия Prolog 6.0.

Си [C ] — Многоцелевой язык программирования высокого уровня, разработанный Денисом Ритчи в начале 1970-х гг. на базе языка BCPL. Используется на миниЭВМ и ПЭВМ. Является базовым языком операционной системы Unix , однако применяется и вне этой системы, для написания быстродействующих и эффективных программных продуктов, включая и операционные системы. Для IBM PC имеется ряд популярных версий языка Си, в том числе — Turbo C (фирмы Borland), Microsoft C и Quick C ( фирмы Microsoft ), а также Zortech C (фирмы Symantec ). Многие из указанных версий обеспечивают также работу с Си и Си++ (см. ниже).

Си++ [C++] — Язык программирования высокого уровня, созданный Бьярном Страустрапом на базе языка Си. Является его расширенной версией, реализующей принципы объектно-ориентированного программирования. Используется для создания сложных программ. Для IBM PC наиболее популярной является система Turbo C++ фирмы Borland (США).

С содержательной точки зрения информация это

Вопрос: «Как измерить информацию?» очень непростой. Ответ на него зависит от того, что понимать под информацией. Но поскольку определять информацию можно по-разному, то и способы измерения тоже могут быть разными.

Содержательный подход к измерению информации.

Для человека информация — это знания человека. Рассмотрим вопрос с этой точки зрения.
Получение новой информации приводит к расширению знаний. Если некоторое сообщение приводит к уменьшению неопределенности нашего знания, то можно говорить, что такое сообщение содержит информацию.
Отсюда следует вывод, что сообщение информативно (т.е. содержит ненулевую информацию), если оно пополняет знания человека. Например, прогноз погоды на завтра — информативное сообщение, а сообщение о вчерашней погоде неинформативно, т.к. нам это уже известно.
Нетрудно понять, что информативность одного и того же сообщения может быть разной для разных людей. Например: «2×2=4» информативно для первоклассника, изучающего таблицу умножения, и неинформативно для старшеклассника.
Но для того чтобы сообщение было информативно оно должно еще быть понятно. Быть понятным, значит быть логически связанным с предыдущими знаниями человека. Определение «значение определенного интеграла равно разности значений первообразной подынтегральной функции на верхнем и на нижнем пределах», скорее всего, не пополнит знания и старшеклассника, т.к. оно ему не понятно. Для того, чтобы понять данное определение, нужно закончить изучение элементарной математики и знать начала высшей.
Получение всяких знаний должно идти от простого к сложному. И тогда каждое новое сообщение будет в то же время понятным, а значит, будет нести информацию для человека.
Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными.

Очевидно, различать лишь две ситуации: «нет информации» — «есть информация» для измерения информации недостаточно. Нужна единица измерения, тогда мы сможем определять, в каком сообщении информации больше, в каком — меньше.

Единица измерения информации была определена в науке, которая называется теорией информации. Эта единица носит название «бит». Ее определение звучит так:

Например, после сдачи зачета или выполнения контрольной работы ученик мучается неопределенностью, он не знает, какую оценку получил. Наконец, учитель объявляет результаты, и он получаете одно из двух информационных сообщений: «зачет» или «незачет», а после контрольной работы одно из четырех информационных сообщений: «2», «3», «4» или «5».
Информационное сообщение об оценке за зачет приводит к уменьшению неопределенности знания в два раза, так как получено одно из двух возможных информационных сообщений. Информационное сообщение об оценке за контрольную работу приводит к уменьшению неопределенности знания в четыре раза, так как получено одно из четырех возможных информационных сообщений.

Рассмотрим еще один пример.

На книжном стеллаже восемь полок. Книга может быть поставлена на любую из них. Сколько информации содержит сообщение о том, где находится книга?

Применим метод половинного деления. Зададим несколько вопросов уменьшающих неопределенность знаний в два раза.

Задаем вопросы:
— Книга лежит выше четвертой полки?
— Нет.
— Книга лежит ниже третьей полки?
— Да .
— Книга — на второй полке?
— Нет.
— Ну теперь все ясно! Книга лежит на первой полке!

Каждый ответ уменьшал неопределенность в два раза.

Всего было задано три вопроса. Значит набрано 3 бита информации. И если бы сразу было сказано, что книга лежит на первой полке, то этим сообщением были бы переданы те же 3 бита информации.

Если обозначить возможное количество событий, или, другими словами, неопределенность знаний N, а буквой I количество информации в сообщении о том, что произошло одно из N событий, то можно записать формулу:

Количество информации, содержащееся в сообщении о том, что произошло одно из N равновероятных событий, определяется из решения показательного уравнения: 2 I = N.

Пример: Вы бросаете монету, загадывая, что выпадет: орел или решка?

Решение: Есть два варианта возможного результата бросания монеты. Ни один из этих вариантов не имеет преимущества перед другим (равновероятны). Перед подбрасыванием монеты неопределенность знаний о результате равна двум.

После совершения действия неопределенность уменьшилась в 2 раза. Получили 1 бит информации.

Ответ: Результат подбрасывания монеты принес 1 бит информации.

7.3. МЕТОДИЧЕСКИЕ РЕКОМЕНДАЦИИ ПО ИЗУЧЕНИЮ ТЕМЫ «ИЗМЕРЕНИЕ ИНФОРМАЦИИ»

СОДЕРЖАТЕЛЬНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ

  • • от чего зависит информативность сообщения, принимаемого человеком;
  • • единица измерения информации;
  • • количество информации в сообщении об одном из N равновероятных событий.

С позиции содержательного подхода просматривается следующая цепочка понятий: «информация — сообщение — информативность сообщения — единица измерения информации — информационный объем сообщения».

Исходная посылка: информация — это знания людей. Следующий вопрос: что такое сообщение? Сообщение — это информационный поток (поток данных), который в процессе передачи информации поступает к принимающему его субъекту. Сообщение — это и речь, которую мы слушаем (радиосообщение, объяснение учителя), и воспринимаемые нами зрительные образы (фильм по телевизору, сигнал светофора), и текст книги, которую мы читаем, и т. д.

Вопрос об информативности сообщения следует обсуждать на примерах, предлагаемых учителем и учениками. Правило: информативным назовем сообщение, которое пополняет знания человека, т. е. несет для него информацию. Для разных людей одно и то же сообщение с точки зрения его информативности может быть разным. Если сведения «старые», т. е. человек это уже знает, или содержание сообщения непонятно человеку, то для него это сообщение неинформативно. Информативно то сообщение, которое содержит новые и понятные сведения.

Введение понятия «информативность сообщения» является первым подходом к изучению вопроса об измерении информации в рамках содержательной концепции. Если сообщение неинформативно для человека, то количество информации в нем, с точки зрения этого человека, равно нулю. Количество информации в информативном сообщении больше нуля.

Для определения количества информации нужно ввести единицу измерения информации. В рамках содержательного подхода такая единица должна быть мерой пополнения знаний субъекта; иначе можно еще сказать так: мерой уменьшения степени его незнания. В учебнике [36] (раздел 1.1) дано следующее определение единицы информации: «Сообщение, уменьшающее неопределенность знаний в 2 раза, несет 1 бит информации». Немного дальше приводится определение для частного случая: «Сообщение о том, что произошло одно событие из двух равновероятных, несет 1 бит информации».

Определение бита — единицы измерения информации, может оказаться сложным для понимания учениками. В этом определении содержится незнакомое детям понятие «неопределенность знаний». Неопределенность знания о результате некоторого события — это число возможных вариантов результата: при бросании монеты — 2 (орел — решка), для игрального кубика — 6, при вытаскивании экзаменационного билета — 30 (если на столе лежало 30 билетов).

Еще одной сложностью является понятие равновероятности. Здесь следует оттолкнуться от интуитивного представления детей, подкрепив его примерами. События равновероятны, если ни одно из них не имеет преимущества перед другими. С этой точки зрения выпадение орла и решки — равновероятны; выпадение одной из шести граней кубика — равновероятны.

Для объяснения способа измерения количества информации, заключенного в сообщении об одном из N равновероятных событий, предлагаем следующую логическую цепочку раскрытия темы.

Объяснение удобно начать с частного определения бита как меры информации в сообщении об одном из двух равновероятных событий. Обсуждая традиционный пример с монетой (орел — решка), следует отметить, что получение сообщения о результате бросания монеты уменьшило неопределенность знаний в два раза: перед подбрасыванием монеты были два равновероятных варианта, после получения сообщения о результате остался один-единственный. Далее следует сказать, что и для всех других случаев сообщений о равновероятных событиях при уменьшении неопределенности знаний в два раза передается 1 бит информации.

Примеры, приведенные в учебнике, учитель может дополнить другими, а также предложить ученикам придумать свои примеры. Индуктивно, от частных примеров учитель вместе с классом приходит к обобщенной формуле:

где N — число вариантов равновероятных событий (неопределенность знаний); i — количество информации в сообщении о том, что произошло одно из N событий.

Ели N известно, a i является неизвестной величиной, то данная формула превращается в показательное уравнение. Как известно, показательное уравнение решается с помощью функции логарифма: i = og2N. В 7-9-м классах ученики еще не знакомы с логарифмами. Поэтому достаточно рассмотреть решение уравнения для частных случаев, когда N есть целая степень двойки: 2,4, 8,16,32 и т. д. Объяснение происходит по схеме:

Читайте также:  Цветовая гамма с точки зрения психологии

Если N = 2 = 2 1 , то уравнение принимает вид: 2′ = 2 1 , отсюда г=1.

Если N = 4 = 2 2 , то уравнение принимает вид: 2′ = 2 2 , отсюда 1 = 2.

Если N = 8 = 2 3 , то уравнение принимает вид: 2‘ = 2 3 , отсюда i = 3 и т. д.

В общем случае, если N = 2*, где k — целое число, то уравнение принимает вид 2′ = 2″ и, следовательно, i = k. Ученикам полезно запомнить ряд целых степеней двойки хотя бы до 2 10 = 1024. С этими величинами им еще предстоит встретиться в других разделах.

Рассмотренные примеры исчерпывают возможности содержательного подхода в решении проблемы измерения информации. Очевидно, что предложенный метод применим только в очень частных случаях. Попробуйте с содержательной точки зрения подсчитать количество информации, полученное в результате прочтения нового для вас параграфа в учебнике! Сделать это невозможно, хотя фактом является то, что информация получена.

Суть содержательного подхода к измерению информации сформулировал в своих трудах Клод Шеннон. Ученый определил информацию как меру неопределенности (энтропию) события.

Информация – это снятая неопределенность. Величина неопределенности некоторого события – это количество возможных исходов этого события.

Чем более вероятно наступление какого-либо события, тем меньшее количество информации несет для нас сообщение о наступлении этого события.

Определим единицу измерения количества информации. Для этого рассмотрим эксперимент с бросанием монеты. Неопределенность знаний о результате падения монеты будет заключаться в двух возможных равновероятных исходах: орел или решка. Сообщение об исходе эксперимента (например, выпала «решка») уменьшит неопределенность в два раза.

Один бит – это такое количество информации, которое уменьшает неопределенность в два раза.

Если бросать монетку несколько раз, то, например, за пять бросков получим количество информации 5 бит. Данный пример иллюстрирует закон аддитивности количества информации: в случае независимых событий общее количество информации равно сумме количеств информации в сообщениях о каждом из событий.

Формула Хартли

Если все исходы какого-то события равновероятны, то количество информации о наступление того или иного исхода определяется формулой Хартли, которую впервые записал в 1928 году американский инженер Ральф Хартли:
i = log2 N
Здесь i – количество информации, содержащееся в сообщении о наступлении одного из равновероятных исходов события.

Из формулы Хартли, воспользовавшись определением логарифма, получим:
N = 2 i

Формула Шеннона

Представим, что в опыте с бросанием монеты, последняя окажется несимметричной. В этом случае выпадения «орла» и «решки» имеют различные вероятности реализации. Формулу Хартли для таких случаев применять нельзя.

К. Шеннон в 1948 году предложил для вычисления количества информации в случае не равновероятных событий следующую формулу:

I = p1 * log2 (1 / p1) + p2 * log2 (1 / p2) + . + pN * log2 (1 / pN)
где I — количество информации,
N — количество возможных событий,
pi — вероятность (частота) наступления i-го события

С математической точки зрения результат, вычисленный по формуле К. Шеннона, – это среднее количество информации, полученное о наступлении одного из возможных событий.

Copyright © 2014-2018, Урок информатики
Все права защищены

Измерение информации: содержательный и алфавитный подходы. Единицы измерения информации

информация алгоритм кодирование компьютер

Понятие информации является важнейшим понятием и основным объектом изучения в информатике. Поэтому очень важно определять количество информации, измерять ее.

Существует два подхода к измерению количества информации.

1. Содержательный — когда информацию рассматривают с точки зрения содержания, ее понятности и новизны для человека.

Пример — с получение оценки за контр. работу. Сообщение содержит информацию, если оно приводит к уменьшению неопределенности знаний. Чем более неопределенная первоначальная ситуация, тем больше новой информации мы получает при информационном сообщении. Количество информации — мера уменьшения неопределенности знания при получении информационных сообщений.

Формула для определения количества информации:

N — количество возможных событий, I — количество информации.

Пример: 1) пирамида — N = 4, I = 2 бита. 2) получили 4 бита инф-ии — колич. событий = 16.

При передаче и хранении информации с помощью технических устройств надо отвлечься от содержания информации и рассматривать ее как последовательность каких-то знаков (букв, цифр, кодов цветов изображения и т.п.)

Алфавит с точки зрения информатики — знаковая система, любой набор символов, принятый в данном языке для записи текста (десятичный алфавит, русский).

Алфавит в содержательном подходе рассматривается как различные возможные состояния (события). Тогда, если считать, что появление каждого символа равновероятно, то по формуле можно определить какое количество информации несет каждый символ.

Например, русский алфавит без буквы ё: 32 = 2 I , I = 5 битов. Тогда в тексте, в котором используются 32 буквы столько информации, сколько букв (пробелов в таком тексте не должно быть). T = K * I, объем текста = колич. символов* объем 1 символа.

Единицы измерения информации.

Бит — такое количество информации, которое содержит сообщение, уменьшающее неопределенность знаний в 2 раза.

Бит — самая маленькая единица измерения информации.

1 байт = 8 бит, 1 Кбайт = 1024 байт, 1Мбайт = 1024 Кбайт, 1Гбайт = 1024Мбайт.

Измерение информации
Содержательный подход

С позиции содержательного подхода к измерению информации решается вопрос о количестве информации в сообщении, получаемом человеком. Рассматривается следующая ситуация:

1) человек получает сообщение о некотором событии; при этом заранее известна неопределенность знания человека об ожидаемом событии. Неопределенность знания может быть выражена либо числом возможных вариантов события, либо вероятностью ожидаемых вариантов события;

2) в результате получения сообщения неопределенность знания снимается: из некоторого возможного количества вариантов оказался выбранным один;

3) по формуле вычисляется количество информации в полученном сообщении, выраженное в битах.

Формула, используемая для вычисления количества информации, зависит от ситуаций, которых может быть две:

1. Все возможные варианты события равновероятны. Их число конечно и равно N.

2. Вероятности (p) возможных вариантов события разные и они заранее известны:

i>, i = 1..N. Здесь по-прежнему N — число возможных вариантов события.

Равновероятные события. Если обозначить буквой i количество информации в сообщении о том, что произошло одно из N равновероятных событий, то величины i и N связаны между собой формулой Хартли:

Величина i измеряется в битах. Отсюда следует вывод:

1 бит — это количество информации в сообщении об одном из двух равновероятных событий.

Формула Хартли — это показательное уравнение. Если i — неизвестная величина, то решением уравнения (1) будет:

Формулы (1) и (2) тождественны друг другу. Иногда в литературе формулой Хартли называют (2).

Пример 1. Сколько информации содержит сообщение о том, что из колоды карт достали даму пик?

В колоде 32 карты. В перемешанной колоде выпадение любой карты — равновероятные события. Если i — количество информации в сообщении о том, что выпала конкретная карта (например, дама пик), то из уравнения Хартли:

Отсюда: i = 5 бит.

Пример 2. Сколько информации содержит сообщение о выпадении грани с числом 3 на шестигранном игральном кубике?

Считая выпадение любой грани событием равновероятным, запишем формулу Хартли: 2 i = 6. Отсюда: i = log26 = 2,58496 бит.

Неравновероятные события (вероятностный подход)

Если вероятность некоторого события равна p, а i (бит) — это количество информации в сообщении о том, что произошло это событие, то данные величины связаны между собой формулой:

Решая показательное уравнение (3) относительно i, получаем:

Формула (4) была предложена К.Шенноном, поэтому ее называют формулой Шеннона.

Методические рекомендации

Обсуждение связи между количеством информации в сообщении и его содержанием может происходить на разных уровнях глубины.

Качественный подход

Качественный подход, который может использоваться на уровне пропедевтики базового курса информатики (5–7-е классы) или в базовом курсе (8–9-е классы).

На данном уровне изучения обсуждается следующая цепочка понятий: информация — сообщение — информативность сообщения.

Исходная посылка: информация — это знания людей, получаемые ими из различных сообщений. Следующий вопрос: что такое сообщение? Сообщение — это информационный поток (поток данных), который в процессе передачи информации поступает к принимающему его субъекту. Сообщение — это и речь, которую мы слушаем (радиосообщение, объяснение учителя), и воспринимаемые нами зрительные образы (фильм по телевизору, сигнал светофора), и текст книги, которую мы читаем, и т.д.

Вопрос об информативности сообщения следует обсуждать на примерах, предлагаемых учителем и учениками. Правило: информативным назовем сообщение, которое пополняет знания человека, т.е. несет для него информацию. Для разных людей одно и то же сообщение с точки зрения его информативности может быть разным. Если сведения “старые”, т.е. человек это уже знает, или содержание сообщения непонятно человеку, то для него это сообщение неинформативно. Информативно то сообщение, которое содержит новые и понятные сведения.

Примеры неинформативных сообщений для ученика 8-го класса:

1)“Столица Франции — Париж” (не новое);

2) “Коллоидная химия изучает дисперсионные состояния систем, обладающих высокой степенью раздробленности” (не понятное).

Пример информативного сообщения (для тех, кто этого не знал): “Эйфелева башня имеет высоту 300 метров и вес 9000 тонн”.

Введение понятия “информативность сообщения” является первым подходом к изучению вопроса об измерении информации в рамках содержательной концепции. Если сообщение неинформативно для человека, то количество информации в нем, с точки зрения этого человека, равно нулю. Количество информации в информативном сообщении больше нуля.

Количественный подход в приближении равновероятности

Данный подход может изучаться либо в углубленном варианте базового курса в основной школе, либо при изучении информатики в 10–11-х классах на базовом уровне.

Рассматривается следующая цепочка понятий: равновероятные событиянеопределенность знанийбит как единица измерения информацииформула Хартлирешение показательного уравнения для N равного целым степеням двойки.

Раскрывая понятие равновероятности, следует отталкиваться от интуитивного представления детей, подкрепив его примерами. События равновероятны, если ни одно из них не имеет преимущества перед другими.

Введя частное определение бита, которое было дано выше, затем его следует обобщить:

Сообщение, уменьшающее неопределенность знаний в 2 раза, несет 1 бит информации.

Это определение подкрепляется примерами сообщений об одном событии из четырех (2 бита), из восьми (3 бита) и т.д.

На данном уровне можно не обсуждать варианты значений N, не равные целым степеням двойки, чтобы не сталкиваться с проблемой вычисления логарифмов, которые в курсе математики пока не изучались. Если же у детей будут возникать вопросы, например: “Сколько информации несет сообщение о результате бросания шестигранного кубика”, — то объяснение можно построить следующим образом. Из уравнения Хартли: 2 i = 6. Поскольку 2 2 3 , следовательно, 2 i = 1/1 = 1. Отсюда, i = 0 бит.

Формула Хартли (1) является частным случаем формулы (3). Если имеется N равновероятных событий (результат бросания монеты, игрального кубика и т.п.), то вероятность каждого возможного варианта равна p = 1/N. Подставив в (3), снова получим формулу Хартли: 2 i = N. Если бы в примере 3 автобусы № 5 и № 7 приходили бы к остановке из 100 раз каждый по 50, то вероятность появления каждого из них была бы равна 1/2. Следовательно, количество информации в сообщении о приходе каждого автобуса равно i = log22 = 1 биту. Пришли к известному варианту информативности сообщения об одном из двух равновероятных событий.

Пример 4. Рассмотрим другой вариант задачи об автобусах. На остановке останавливаются автобусы № 5 и № 7. Сообщение о том, что к остановке подошел автобус № 5, несет 4 бита информации. Вероятность появления на остановке автобуса с № 7 в два раза меньше, чем вероятность появления автобуса № 5. Сколько бит информации несет сообщение о появлении на остановке автобуса № 7?

Запишем условие задачи в следующем виде:

Вспомним связь между вероятностью и количеством информации: 2 i = 1/p

Подставляя в равенство из условия задачи, получим:

Из полученного результата следует вывод: уменьшение вероятности события в 2 раза увеличивает информативность сообщения о нем на 1 бит. Очевидно и обратное правило: увеличение вероятности события в 2 раза уменьшает информативность сообщения о нем на 1 бит. Зная эти правила, предыдущую задачу можно было решить “в уме”.

Источники:
  • http://studopedia.su/14_80326_soderzhatelniy-podhod-k-izmereniyu-informatsii.html
  • http://studfiles.net/preview/6212980/page:2/
  • http://www.sites.google.com/site/izmerinf/home/soderzatelnyj-podhod
  • http://ozlib.com/800115/informatika/metodicheskie_rekomendatsii_izucheniyu_temy_izmerenie_informatsii
  • http://informatics-lesson.ru/information/substantive-approach.php
  • http://vuzlit.ru/1022219/izmerenie_informatsii_soderzhatelnyy_alfavitnyy_podhody_edinitsy_izmereniya_informatsii
  • http://xn----7sbbfb7a7aej.xn--p1ai/informatika_kabinet/inf_prozes/inf_prozes_06.html