Меню Рубрики

Понятие информации с точки зрения бытовой информации

Информация относится к фундаментальным, неопределяемым понятиям науки информатика. Тем не менее смысл этого понятия должен быть разъяснен. Предпримем попытку рассмотреть это понятие с различных позиций.

Термин информация происходит от латинского слова informatio , что означает сведения, разъяснения, изложение . В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

в быту информацией называют любые данные, сведения, знания, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.;

в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов (в этом случае есть источник сообщений, получатель (приемник) сообщений, канал связи);

в кибернетике под информацией понимают ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;

в теории информации под информацией понимают сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Информация может существовать в виде:

текстов, рисунков, чертежей, фотографий;

световых или звуковых сигналов;

электрических и нервных импульсов;

жестов и мимики;

запахов и ощущений;

хромосом, посредством которых передаются по наследству признаки и свойства организмов, и т.д.

Свойства информации

Свойства информации (с точки зрения бытового подхода к определению);

релевантность — способность информации соответствовать нуждам потребителя;

эргономичность — свойство, характеризующее удобство формы или объема информации с точки зрения данного потребителя.

Информацию следует считать особым видом ресурса.

С этой точки зрения свойства информации:

Фундаментальное свойство информации — преобразуемость. Оно означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором ее количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может. Высшей формой информации, проявляющейся — в управлении в социальных системах, являются знания.

Информационные процессы

Под информационным понимают процесс, связанный с определенными операциями над информацией в ходе которого может измениться содержание информации или форма ее представления.

В информатике к таким процессам относят:

Определение количества информации

Любая информация может рассматриваться как уменьшение неопределенности наших знаний об окружающем мире (в теории информации принято говорить именно об уменьшении неопределенности, а не об увеличении объема знаний). Случайность события заключается в том, что реализация того или иного исхода имеет некоторую степень неопределенности. Пусть, например, абсолютно незнакомый нам ученик сдает экзамен, результатом которого может служить получение оценок 2, 3, 4 или 5. Поскольку мы ничего не знаем о данном ученике, то степень неопределенности всех перечисленных результатов сдачи экзамена совершенно одинакова. Напротив, если нам известно, как он учится, то уверенность в некоторых исходах будет больше, чем в других: так, отличник скорее всего сдаст экзамен на пятерку, а получение двойки для него — это нечто почти невероятное. Наиболее просто определить количество информации в случае, когда все исходы события могут реализоваться с равной долей вероятности . В этом случае для вычисления информации используется формула Хартли .

В более сложной ситуации, когда исходы события ожидаются с разной степенью уверенности, требуются более сложные вычисления по формуле Шеннона , которую обычно выносят за рамки школьного курса информатики. Очевидно, что формула Хартли является некоторым частным случаем более общей формулы Шеннона.

Формула Хартли была предложена в 1928 году американским инженером Р.Хартли. Она связывает количество равновероятных состояний N с количеством информации I в сообщении о том, что любое из этих состояний реализовалось.

Наиболее простая форма для данной формулы зафиксируется следующим образом:

Причем обычно значение N известно, а I приходится подбирать, что не совсем удобно. Поэтому те, кто знает математику получше, предпочитают преобразовать данную формулу так, чтобы сразу выразить искомую величину I в явном виде:

Единица информации носит название бит (от англ. Вinary digiT — двоичная цифра); таким образом, 1 бит — это информация о результате опыта с двумя равновероятными исходами.

Чем больше возможных исходов, тем больше информации в сообщении о реализации одного из них.

Пример 1. Из колоды выбрали 16 карт (все “картинки” и тузы) и положили на стол рисунком вниз. Верхнюю карту перевернули (дама пик). Сколько информации будет заключено в сообщении о том, какая именно карта оказалась сверху? Все карты одинаковы, поэтому любая из них могла быть перевернута с одинаковой вероятностью. В таких условиях применима формула Хартли. Событие, заключающееся в открытии верхней карты, для нашего случая могло иметь 16 возможных исходов. Следовательно, информация о реализации одного из них равняется

I = log 2 16 = 4 бита

Примечание. Если вы не любите логарифмы, можно записать формулу Хартли в виде 2 i = 16 и получить ответ, подбирая такое I , которое ей удовлетворяет.

Алфавитный (объемный) подход к измерению информации

Он заключается в определении количества информации в каждом из знаков дискретного сообщения с последующим подсчетом количества этих знаков в сообщении. Пусть сообщение кодируется с помощью некоторого набора знаков. Заметим, что если для данного набора установлен порядок следования знаков , то он называется алфавитом . Пусть алфавит, с помощью которого записываются все сообщения, состоит из N символов . Для простоты предположим, что все они появляются в тексте с одинаковой вероятностью. Тогда применима формула Хартли для вычисления информации

Понятие информации. Информатика

Слово «информация» происходит от латинского слова informatio, что означает разъяснение, высказывания, осведомленность. Само слово информация лишь сравнительно недавно стало превращаться в точный термин. До этого информацию воспринимали как то, что присутствует в языке, письме или передается при общении. Сейчас смысл, который вкладывается в это понятие, очень изменился и расширился. Возникла особая математическая дисциплина — теория информации.

Хотя в теории информации и вводится несколько ее конкретных определений, все они не охватывают всего объема этого понятия. Рассмотрим некоторые определения.

Информация — это отражение реального (материального, предметного) мира, которое выражается в виде сигналов, знаков.

Информация — любая совокупность сигналов, сведений (данных), которые какая-либо система воспринимает из окружающей среды (входная информация), выдает в окружающую среду ( исходная информация ) или сохраняется внутри определенной системы (внутренняя информация).

Информация существует в виде документов, рисунков, текстов, звуковых и световых сигналов, энергетических и нервных импульсов и т.п.

Под информацией понимают сведения об объектах окружающего мира, которые воспринимаются человеком, животным, растительным миром или специальными устройствами и повышают их уровень информированности.

Информация передается с помощью сообщений. Сообщение бывают устными, письменными, в виде рисунков, жестов, специальных знаков или организованными каким-то другим образом. Примерами сообщений являются: показания измерительного устройства, дорожные знаки, текст телеграммы, устный рассказ и тому подобное.

С помощью сообщений происходит обмен информацией между людьми, между людьми и машинами, между машинами; обмен сигналами в растительном и животном мире, от клетки к клетке, от организма в организм и тому подобное. Рекомендуем также прочитать статью «Информационные сообщения и процессы«.

Виды информации

Информацию можно разделить на виды по нескольким признакам:

По способу восприятия

Для человека информация делится на виды в зависимости от типа рецепторов, воспринимающих ее:

  • Визуальная — воспринимается органами зрения.
  • Аудиальная — воспринимается органами слуха.
  • Тактильная — воспринимается тактильными рецепторами.
  • Обонятельная — воспринимается обонятельными рецепторами.
  • Вкусовая — воспринимается вкусовыми рецепторами.

По форме представления

По форме представления информация делится на следующие виды:

  • Текстовая — что передается в виде символов, предназначенных обозначать лексемы языка.
  • Числовая — в виде цифр и знаков, обозначающих математические действия.
  • Графическая — в виде изображений, событий, предметов, графиков.
  • Звуковая — устная или в виде записи передача лексем языка аудиальным путем.
  • Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.
  • Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
  • Личная — набор сведений о какой-либо личности, которые определяют социальное положение и типы социальных взаимодействий внутри популяции.

Свойства информации

Полезность. Полезность информации оценивается по тем задачам, которые можно решить с ее использованием. Сведения, важные и полезные для одного человека, оказываются бесполезными для другого, если он не может их использовать.

Актуальность. Информация актуальна (своевременна), если она важна в данный момент времени. Если вы собираетесь ехать поездом, то для вас важна информация о том, когда этот поезд отправляется. Однако эта информация теряет свою актуальность после того, как поезд тронулся.

Вероятность (правдивость). Информация считается достоверной, если она не противоречит реальной действительности, правильно ее объясняет и подтверждается. Если вы узнали о наводнении из информационной телепрограммы, то эта информация, по всей вероятности, является достоверной. В то же время слухи о пришествии инопланетян, которое ожидается на следующей неделе, недостоверны.

Объективность. Информация может быть объективной или субъективной (зависеть или не зависеть от чьего суждения). Например, сообщение «вода в море холодная» является субъективным, одновременно сообщение «температура воды +17 градусов Цельсия» дает объективную информацию.

Полнота. Информация полная, если ее достаточно для правильных выводов и принятия правильных решений. Если человеку на основе какой-либо информации приходится что-то решать, то он сначала оценивает, достаточно этой информации для принятия правильного решения.

Понятность. Информация понятна, если при ее восприятии нет необходимости в дополнительных сообщениях (не возникает вопросов). Если человеку говорят что-то, к восприятию чего он еще не подготовлен, например обращаются английском раньше, чем человек выучил этот язык, то он из услышанной информации вынесет совсем другую информацию, чем это было бы тогда, когда человек выучил английский язык.

Носители информации

Среда, в которой зафиксировано сообщение, называют носителем сообщения. В «докомпьютерную» эру информацию хранили на бумаге, фотографиях, кинопленке, магнитной ленте и др. С появлением первых компьютеров нашли широкое применение перфокарты и перфоленты, магнитные диски, компакт-диски.

Перфокарта — это лист тонкого картона стандартных размеров. В определенных позициях перфокарты пробивают дырочки. Наличие дырочки в определенной позиции считают единицу, а ее отсутствие — ноль.

Перфолента — это лента плотной бумаги стандартной ширины, на которую заносится информация пробивкой дырочек в соответствующих позициях на 5-ти или 8-ми параллельных дорожках.

Конечно, за дырочками, нанесенными на перфокарты или перфоленты, стоит вполне определенная информация.

Магнитные ленты и магнитные диски для хранения информации начали использовать с развитием вычислительной техники. Для записи 1 (единицы) намагничивалась небольшая область. Размагниченная (или намагниченная противоположно) область означала 0 (ноль).

Читайте также:  Осветитель таблиц для исследования остроты зрения ротта

Гибкие магнитные диски, или ГМД (FDD), позволяли легко переносить информацию с одного компьютера на другой, а также сохранять информацию, которая не используется на компьютере постоянно. Выпускались дискеты, как правило, с диском диаметром 3,5 дюйма и имели емкость всего 1,44 Мбайта.

Жесткие магнитные диски, или винчестеры (HDD), и сегодня являются основным типом носителей для долговременного хранения информации. Накопитель включает собственно магнитный диск, систему позиционирования и комплект магнитных головок — все это размещено в герметично закрытом корпусе.

Магнитные карточки содержат закодированную информацию, эта технология используется в кредитных, телефонных и регистрационных карточках, а также пропусках и «ключах» для кодовых замков.

Компакт-диски (оптические диски или CD) — это диск из специальной пластмассы с зеркальным покрытием с той стороны, с которой записывается и считывается информация. Информация на диск записывается так: диск вращается, и на его поверхности лазером в определенных местах наносятся «повреждение» поверхности таким образом, чтобы от них не отражался луч лазера при считывании. Таким образом записывается 1, «неповрежденные» места означают логический 0.

Существуют CD-R, DVD-R — оптические диски, на которые можно осуществлять однократную запись, а также CD-RW, DVD-RW — оптические диски, на которые можно осуществлять многократную запись.

Формы и способы представления информации

Символьная форма представления информации является наиболее простой, в ней каждый символ имеет какое-то значение. Например: красный свет светофора, показатели поворота на транспортных средствах, различные жесты, сокращения и обозначения в формулах.

Текстовая форма представления информации является более сложной. Эта форма предусматривает, что содержание сообщения передается не через отдельные символы (цифры, буквы, знаки), а их сочетанием, порядком размещения. Последовательно расположены символы образуют слова, которые в свою очередь могут образовывать предложения. Текстовая информация используется в книгах, брошюрах, газетах, журналах и т.

Графическая форма представления информации, как правило, имеет наибольший объем. К этой форме относятся фотографии, картины, чертежи, графики и тому подобное. Графическая форма более информативна. Видимо, поэтому, когда берем в руки новую книгу, то первым делом ищем в ней рисунки, чтобы создать о ней наиболее полное впечатление.

Информацию можно подавать одним из способов: буквами и знаками, жестами, нотами музыки, рисунками, картинами, скульптурами, звукозаписью, видеозаписью, кинофильмами и тому подобное.

Информация может быть в виде непрерывных (аналоговых) и дискретных (цифровых) сигналов.

Информация в аналоговом виде меняет свое значение постепенно (показатели термометра, часов со стрелками, спидометра и т.д.).

Информация в дискретном виде меняет свое значение с определенным шагом (показатели электронных часов, весы с гирями, подсчет количества предметов и т.п.).

Информатика

Термин информатика происходит от двух слов: информация и автоматика. Значит информатика это «наука о преобразовании информации».

Этот термин впервые введен в обиход во Франции в середине 60-х годов XX в., когда началось широкое использование вычислительной техники. Тогда в англоязычных странах вошел в употребление термин «Computer Science» для обозначения науки о преобразовании информации, которая базируется на вычислительной технике. Теперь эти термины являются синонимами.

Основа информатики — информационные технологии — совокупность средств и методов, с помощью которых осуществляется информационные процессы во всех сферах жизни и деятельности человека.

Информационная системавзаимосвязанная совокупность средств, методов и персонала, используемая для хранения, обработки и выдачи информации с целью достижения конкретной задачи.

Современное понимание информационной системы (ИС) предусматривает использование компьютера в качестве основного технического средства обработка информации. Как правило, это компьютеры, оснащенные специализированными программными средствами.

В работе ИС, в ее технологическом процессе можно выделить следующие этапы :

  1. Зарождение данных — формирование первичных сообщений фиксируют результаты определенных операций, свойства объектов и субъектов управления, параметры процессов, содержание нормативных и юридических актов и т.п.
  2. Накопление и систематизация данных — организация такого их размещения, которое обеспечивало бы быстрый поиск и отбор нужных сведений, защита их от искажений, потери, деформирование целостности и др.
  3. Обработка данных — процессы, в результате которых на основании ранее накопленных данных формируются новые виды данных: обобщающие, аналитические, рекомендательные, прогнозные. Производные данные также могут проходить дальнейшую обработку, давая сведения обобщенности и др.
  4. Отображение данных — представление их в форме, пригодной для восприятия человеком. Прежде всего — это вывод на печать, то есть изготовление документов, удобных для восприятия человеком. Широко используют построение графических иллюстративных материалов (графиков, диаграмм) и формирование звуковых сигналов.

Сообщения, которые формируются на первом этапе, могут быть обычным бумажным документом, сообщением «в электронном виде» или тем и другим одновременно. В современных информационных системах сообщение по большей части имеют «электронный вид». Основные составляющие информационных процессов:

  • сбор данных: накопление данных с целью достаточной полноты для принятия решений;
  • сохранения;
  • передача;
  • обработка.

Одним из важнейших условий применения электронно — вычислительных машин (ЭВМ) для решения тех или иных задач является построение соответствующего алгоритма (программы), содержащий информацию о правилах получения результирующей (итоговой) информации из заданной (входной) информации.

Программирование — дисциплина, исследующая методы формулировки и решения задач с помощью ЭВМ, и является основной составной частью информатики.

Итак, информация, ЭВМ, алгоритм — три фундаментальных понятия информатики.

Информатика — комплексная научная и инженерная дисциплина, изучающая все аспекты проектирования, создания, оценки, функционирования компьютерных систем обработки информации, ее применение и влияние на различные области социальной практики.

Родоначальниками информатики является науки: документалистика и кибернетика. Кибернетика — переводится, как «искусный в управлении».

В информатике выделяют три основных части:

  • алгоритмы обработки информации ( algorithm )
  • вычислительную технику ( hardware )
  • компьютерные программы ( software ).

Предмет информатики составляют понятия:

  • аппаратное обеспечение средств вычислительной техники
  • программное обеспечение средств вычислительной техники;
  • средства взаимодействия аппаратного и программного обеспечения;
  • средства взаимодействия человека и аппаратного и программного обеспечения.

Методы и средства взаимодействия человека с аппаратными и программными средствами называется интерфейсом.

Двоичное кодирование информации

В разговорной речи часто встречаются такие выражения, как передача информации, сжатие информации, обработка информации. В таких случаях всегда идет об определенном сообщении, которое закодировано и передано тем или иным способом.

В вычислительной технике наиболее часто применяется двоичная форма представления информации, основанной на представленные данных последовательностью двух знаков: 0 и 1

Эти знаки называются двоичными цифрами, по — английски — binary digit , или, сокращенно bit (бит).

Также используется восьмеричная форма представления информации (основана на представленные последовательности цифр 0, 1, …, 7) и шестнадцатеричная форма представления информации (основана на представленные последовательностью 0, 1, …, 9, A, B, C, …, F).

Информационным объемом сообщение называется количество битов в этом сообщении. Подсчет информационного объема сообщение является чисто техническим заданием, так как при таком подсчете содержание сообщения не играет никакой роли.

В современной вычислительной технике биты принято объединять в восьмерки, которые называются байтами : 1 байт = 8 бит. Наряду с битами и байтами используют и большие единицы измерения информации.

  • 1 bit binary digit ;
  • 1 байт = 8 бит;
  • 1 Кбайт = 2 10 байт = 1024 байт;
  • 1 Мбайт = 2 10 Кбайт = 1024 Кбайт = 2 20 байт;
  • 1 Гбайт = 2 10 Мбайт = 1024 Мбайт = 2 30 байт;
  • 1 Тбайт = 2 10 Гбайт = 1024 Гбайт = 2 40 байт.
  • 1 Пбайт = 2 10 Тбайт = 1024 Тбайт = 2 50 байт.
десятичное число двоичное число байт
1 1 0000 0001
2 10 0000 0010
255 1111 1111 1111 1111

С помощью двух бит кодируются четыре различных значения: 00, 01, 10, 11. Тремя битами можно закодировать 8 состояний:

  • 000 001 010 011 100 101 110 111

Вообще с помощью n бит можно закодировать 2 n состояний.

Скорость передачи информации измеряется количеством битов, передаваемых за одну секунду. Скорость передачи бит за одну секунду называется 1 Бодом. Производные единицы скорости передачи называются Кбод, Мбод и Гбод:

  • 1 Кбод (один килобод) = 2 10 бод = 1024 бит / с;
  • 1 Мбод (один мегабод) = 2 20 бод = 1024 Кбод;
  • 1 Гбод (один гигабод) = 2 30 бод = 1024 Мбод.

Пример. Пусть модем передает информацию со скоростью 2400 бод. Для передачи одного символа текста нужно передать около 10 битов. Таким образом, модем способен за 1 секунду передать около 2400/10 = 240 символов.

На ЭВМ можно обрабатывать не только числа, но и тексты. При этом нужно закодировать около 200 различных символов. В двоичном коде для этого нужно не менее 8 разрядов ( 2 8 = 256 ). Этого достаточно для кодирования всех символов английского и русского алфавитов (строчные и прописные), знаков препинания, символов арифметических действий некоторых общепринятых спецсимволов.

В настоящее время существует несколько систем кодирования.

Наиболее распространенными являются следующие системы кодирования: ASCII, Windows-1251, KOИ8, ISO.

ASCII (American Standard Code for Information Interchange — стандартный код информационного обмена)

В системе ASCII закреплены 2 таблицы кодирования: базовая и расширенная. Базовая таблица закрепляет значения кодов от 0 до 127, расширенная от 128 до 255.

В первых 32 кодах (0-31) размещаются так называемые управляющие коды, которым не соответствуют никакие символы языков, и, соответственно коды не выводятся ни на экран, ни на устройстве печати.

Начиная с кода 32 по код 127 размещены коды символов английского алфавита.

Символы национального алфавита размещены в кодах от 128 до 255.

Кодирования Windows-1251 стала стандартом в российском секторе Wold Wide Web .

KOИ8 (код обмена информацией) является стандартным кодированием в сообщениях электронной почты и телеконференций.

ISO ( International Standard Organization ) — международный стандарт. Это кодирования используется редко.

Появление информатики обусловлено возникновением и распространением новой технологии сбора, обработки и передачи информации, связанной с фиксацией данных на машинных носителях. Основной инструмент информатики — компьютер.

Компьютер, получивший свое название от первоначального назначения — выполнения вычислений, имеет второе очень важное применение. Он стал незаменимым помощником человека в его интеллектуальной деятельности и основным техническим средством информационных технологий. А быстрое развитие в последние годы технических и программных возможностей персональных компьютеров, распространение новых видов информационных технологий создают реальные возможности их использования, открывая перед пользователем качественно новые пути дальнейшего развития и адаптации к потребностям общества.

Дезинформация

Дезинформация — заведомо неверная, ложная информация, предоставляемая оппоненту или противнику для более эффективного ведения военных действий, получения каких либо конкурентных преимуществ, для проверки на утечку информации и выявления источника утечки, определения потенциально ненадежных клиентов или партнеров. Также дезинформацией называется сам процесс манипулирования информацией, как то: введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не актуальной информации, искажения контекста, искажения какой либо части информации.

Читайте также:  Урок основания с точки зрения тэд

Дезинформация, как мы видим, — это результат деятельности человека, желание создать ложное впечатление и, соответственно подтолкнуть к требуемым действиям и/или бездействию.

Тест Информация и информационные процессы 8 класс

Тест Информация и информационные процессы 8 класс состоит из 26 вопросов и предназначен для проверки результатов обучения по информатике в 8 классе по соответствующей теме.

Рекомендуемые правила при оценивании, 1 балл за каждый правильный ответ.

Рекомендуемые соотношения при выставлении оценок:
от 13 до 17 баллов — оценка «3»;
от 18 до 21 балла — оценка «4»;
от 22 до 26 баллов — оценка «5».

1. Какое из следующих утверждений точнее всего раскрывает смысл понятия «информация» с бытовой точки зрения?
а) последовательность знаков некоторого алфавита
б) книжный фонд библиотеки
в) сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком непосредственно или с помощью специальных устройств
г) сведения, содержащиеся в научных теориях

2. Непрерывным называют сигнал:
а) принимающий конечное число определённых значений
б) непрерывно изменяющийся во времени
в) несущий текстовую информацию
г) несущий какую-либо информацию

3. Дискретным называют сигнал:
а) принимающий конечное число определённых значений
б) непрерывно изменяющийся во времени
в) который можно декодировать
г) несущий какую-либо информацию

4. Информацию, не зависящую от личного мнения или суждения, называют:
а) понятной
б) актуальной
в) объективной
г) полезной

5. Информацию, существенную и важную в настоящий момент, называют:

а) полезной
б) актуальной
в) достоверной
г) объективной

6. По способу восприятия человеком различают следующие виды информации:
а) текстовую, числовую, графическую, табличную и пр.
б) научную, социальную, политическую, экономическую, религиозную и пр.
в) обыденную, производственную, техническую, управленческую
г) визуальную, аудиальную, тактильную, обонятельную, вкусовую

7. Известно, что наибольший объём информации физически здоровый человек получает при помощи:
а) органов слуха
б) органов зрения
в) органов осязания
г) органов обоняния
д) вкусовых рецепторов

8. Укажите «лишний» объект с точки зрения соглашения о смысле используемых знаков:
а) буквы
б) дорожные знаки
в) цифры
г) нотные знаки

9. Укажите «лишний» объект с точки зрения вида письменности:
а) русский язык
б) английский язык
в) китайский язык
г) французский язык

10. К формальным языкам относится:
а) русский язык
б) латынь
в) китайский язык
г) французский язык

11. По форме представления информацию можно условно разделить на следующие виды:
а) математическую, биологическую, медицинскую, психологическую и пр.
б) знаковую и образную
в) обыденную, научную, производственную, управленческую
г) визуальную, аудиальную, тактильную, обонятельную, вкусовую

12. Дискретизация информации — это:
а) физический процесс, изменяющийся во времени
б) количественная характеристика сигнала
в) процесс преобразования информации из непрерывной формы в дискретную
г) процесс преобразования информации из дискретной формы в непрерывную

13. Дайте самый полный ответ.
При двоичном кодировании используется алфавит, состоящий из:
а) 0 и 1
б) слов ДА и НЕТ
в) знаков + и −
г) любых двух символов

14. Сколько существует различных последовательностей из символов «плюс» и «минус» длиной ровно шесть символов?
а) 64
б) 50
в) 32
г) 20

15. Для пяти букв латинского алфавита заданы их двоичные коды (для некоторых букв — из двух битов, для некоторых — из трёх битов). Эти коды представлены ниже:
А — 000, B — 01, C — 100, D — 10, E — 011
Определить, какой набор букв закодирован двоичной строкой 0110100011000.
а) ЕВСЕА
б) BDDEA
в) BDCEA
г) ЕВАЕА

16. Шахматная доска состоит из 8 столбцов и 8 строк. Какое минимальное количество битов потребуется для кодирования координат одного шахматного поля?
а) 4
б) 5
в) 6
г) 7

17. В какой строке единицы измерения информации расположены по возрастанию?
а) гигабайт, мегабайт, килобайт, байт, бит
б) бит, байт, мегабайт, килобайт, гигабайт
в) байт, бит, килобайт, мегабайт, гигабайт
г) бит, байт, килобайт, мегабайт, гигабайт

18. Объём сообщения равен 11 Кбайт. Сообщение содержит 11 264 символа. Какова мощность алфавита, с помощью которого записано сообщение?
а) 64
б)128
в) 256
г) 512

19. Дан текст из 600 символов. Известно, что символы берутся из таблицы размером 16 х 32. Определите информационный объём текста в битах.
а) 1000
б) 2400
в) 3600
г) 5400

20. Два текста содержат одинаковое количество символов. Первый текст составлен из символов алфавита мощностью 16, а второй текст — из символов алфавита мощностью 256. Во сколько раз количество информации во втором тексте больше, чем в первом?
а) 12
б) 2
в) 24
г) 4

21. Информационные процессы — это:
а) процессы строительства зданий и сооружений
б) процессы химической и механической очистки воды
в) процессы сбора, хранения, обработки, поиска и передачи информации
г) процессы производства электроэнергии

22. Под носителем информации принято подразумевать:
а) линия связи
б) сеть Интернет
в) компьютер
г) материальный объект, на котором можно тем или иным способом зафиксировать информацию

23. В какой строке верно представлена схема передачи информации?
а) источник → кодирующее устройство → декодирующее устройство → приёмник
б) источник → кодирующее устройство → канал связи → декодирующее устройство → приёмник
в) источник → кодирующее устройство → помехи → декодирующее устройство → приёмник
г) источник → декодирующее устройство → канал связи → кодирующее устройство → приёмник

24. Гипертекст — это:
а) очень большой текст
б) текст, в котором могут осуществляться переходы по ссылкам
в) текст, набранный на компьютере
г) текст, в котором используется шрифт большого размера

25. Поисковой системой НЕ является:
а) Google
б) FireFox
в) Rambler
г) Яндекс

26. В таблице приведены запросы к поисковой системе. По какому запросу будет найдено наибольшее количество соответствующих ему страниц?
а) разведение & содержание & меченосцы & сомики
б) содержание & меченосцы
в) (содержание & меченосцы) | сомики
г) содержание & меченосцы & сомики

Ответы на тест Информация и информационные процессы 8 класс:
1-в, 2-б, 3-а, 4-в, 5-б, 6-г, 7-б, 8-б, 9-в, 10-б, 11-б, 12-в, 13-г, 14-а, 15-в, 16-в, 17-г, 18-в, 19-г, 20-б, 21-в, 22-г, 23-б, 24-б, 25-б, 26-в

Понятие информации, ее виды и свойства

Понятие информации

В понятие «информация» (от лат. informatio – сведения, разъяснения, изложение) вкладывается различный смысл соответственно той отрасли, где это понятие рассматривается: в науке, технике, обычной жизни и т.д. Обычно под информацией подразумевают любые данные или сведения, которые кого-либо интересуют (сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.).

В литературе можно найти большое число определений термина «информация», которые отражают различные подходы к его толкованию:

  • Информация – сведения (сообщения, данные) независимо от формы их представления («Федеральный закон РФ от $27.07.2006$ г. № $149$-ФЗ Об информации, информационных технологиях и о защите информации»);
  • Информация – сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством (Толковый словарь русского языка Ожегова).

Говоря о компьютерной обработке данных под информацией понимают некоторую последовательность символов или знаков (букв, цифр, закодированных графических образов и звуков и т. п.), которая несет смысловую нагрузку и представлена в понятном для компьютера виде.

Попробуй обратиться за помощью к преподавателям

В информатике наиболее часто используется следующее определение этого термина:

Информация – это осознанные сведения (знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т.д.) об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования.

Одно и то же информационное сообщение (статья в журнале, объявление, рассказ, письмо, справка, фотография, телепередача и т. п.) может нести разное количество и содержание информации для различных людей в зависимости от накопленных ими знаниями, от уровня доступности этого сообщения и от уровня интереса к нему. Например, новость, составленная на китайском языке, не несет никакой информации человеку, который не знает этого языка, но может быть полезной для человека со знанием китайского. Никакой новой информации не будет содержать и новость, изложенная на знакомом языке, если ее содержание непонятно или уже известно.

Задай вопрос специалистам и получи
ответ уже через 15 минут!

Информацию рассматривают как характеристику не сообщения, а соотношения между сообщением и его получателем.

Виды информации

Информация может существовать в различных видах:

  • текст, рисунки, чертежи, фотографии;
  • световые или звуковые сигналы;
  • радиоволны;
  • электрические и нервные импульсы;
  • магнитные записи;
  • жесты и мимика;
  • запахи и вкусовые ощущения;
  • хромосомы, через которые передаются по наследству признаки и свойства организмов, и т. д.

Различают основные виды информации, которые классифицируют по ее форме представления, способам ее кодирования и хранения:

  • графическая – один из древнейших видов, с помощью которого хранили информацию об окружающем мире в виде наскальных рисунков, а затем в виде картин, фотографий, схем, чертежей на различных материалах (бумага, холст, мрамор и др.), которые изображают картины реального мира;
  • звуковая (акустическая) – для хранения звуковой информации в $1877$ г. было изобретено звукозаписывающее устройство, а для музыкальной информации – разработан способ кодирования с использованием специальных символов, который дает возможность хранить ее как графическую информацию;
  • текстовая – кодирует речь человека с помощью специальных символов – букв (для каждого народа свои); для хранения используется бумага (записи в тетради, книгопечатание и т.п.);
  • числовая – кодирует количественную меру объектов и их свойств в окружающем мире с помощью специальных символов – цифр (для каждой системы кодирования свои); особенно важной стала с развитием торговли, экономики и денежного обмена;
  • видеоинформация – способ хранения «живых» картин окружающего мира, который появился с изобретением кино.

Существуют также виды информации, для которых еще не изобретены способы кодирования и хранения – тактильная информация, органолептическая и др.

Первоначально информация передавалась на большие расстояния с помощью кодированных световых сигналов, после изобретения электричества – передачи закодированного определенным образом сигнала по проводам, позже – используя радиоволны.

Основателем общей теории информации считают Клода Шеннона, который также положил основу цифровой связи, написав книгу «Математическая теория связи» в $1948$ г., в которой впервые обосновал возможность использования двоичного кода для передачи информации.

Первые компьютеры являлись средством для обработки числовой информации. С развитием компьютерной техники ПК стали использовать для хранения, обработки, передачи различного вида информации (текстовой, числовой, графической, звуковой и видеоинформации).

Хранить информацию с помощью ПК можно на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой памяти (флэш-память и пр.). Эти методы постоянно совершенствуются, изобретаются и носители информации. Все действия с информацией выполняет центральный процессор ПК.

Читайте также:  Воспаление глаза после лазерной коррекции зрения

Предметы, процессы, явления материального или нематериального мира, если их рассматривать с точки зрения их информационных свойств, называют информационными объектами.

Над информацией можно выполнять огромное количество различных информационных процессов, среди которых:

  • создание;
  • прием;
  • комбинирование;
  • хранение;
  • передача;
  • копирование;
  • обработка;
  • поиск;
  • воспринятие;
  • формализация;
  • деление на части;
  • измерение;
  • использование;
  • распространение;
  • упрощение;
  • разрушение;
  • запоминание;
  • преобразование;
  • сбор

Свойства информации

Информация, как и любой объект, обладает свойствами, наиболее важными среди которых, с точки зрения информатики, являются:

  • Объективность. Объективная информация – существующая независимо от человеческого сознания, методов ее фиксации, чьего-либо мнения или отношения.
  • Достоверность. Информация, отражающая истинное положение дел, является достоверной. Недостоверная информация чаще всего приводит к неправильному пониманию или принятию неправильных решений. Устаревание информации может из достоверной информации сделать недостоверную, т.к. она уже не будет отражением истинного положения дел.
  • Полнота. Информация является полной, если она достаточна для понимания и принятия решений. Неполная или избыточная информация может привести к задержке принятия решения или к ошибке.
  • Точность информации – степень ее близости к реальному состоянию объекта, процесса, явления и т. п.
  • Ценность информации зависит от ее важности для принятия решения, решения задачи и дальнейшей применимости в каких-либо видах деятельности человека.
  • Актуальность. Только своевременность получения информации может привести к ожидаемому результату.
  • Понятность. Если ценную и своевременную информацию выразить непонятно, то она, скорее всего, станет бесполезной. Информация будет понятной, когда она, как минимум, выражена понятным для получателя языком.
  • Доступность. Информация должна соответствовать уровню восприятия получателя. Например, одни и те же вопросы по-разному излагаются в учебниках для школы и вуза.
  • Краткость. Информация воспринимается гораздо лучше, если она представлена не подробно и многословно, а с допустимой степенью сжатости, без лишних деталей. Краткость информации незаменима в справочниках, энциклопедиях, инструкциях. Логичность, компактность, удобная форма представления облегчает понимание и усвоение информации.

Так и не нашли ответ
на свой вопрос?

Просто напиши с чем тебе
нужна помощь

Информатика / Лекция 2 Понятие информации, виды информации

Информация(от лат. informatio, разъяснение, изложение, осведомленность) — любые сведения и данные, отражающие свойства объектов в природных, социальных и технических системах и передаваемые звуковым, графическим (в т. ч. письменным) или иным способом без применения или с применением технических средств.

Информацию можно разделить на виды по различным критериям:

Визуальная — воспринимаемая органами зрения.

Аудиальная — воспринимаемая органами слуха.

Тактильная — воспринимаемая тактильнымирецепторами.

Обонятельная — воспринимаемая обонятельнымирецепторами.

Вкусовая — воспринимаемая вкусовымирецепторами.

Текстовая— передаваемая в виде символов, предназначенных обозначать лексемы языка.

Числовая— в виде цифр и знаков, обозначающих математические действия.

Графическая— в виде изображений, предметов, графиков.

Звуковая— устная или в виде записи и передачи лексем языка.

Массовая— содержит тривиальные сведения и оперирует набором понятий, понятным большей частисоциума.

Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.

Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.

Личная(приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

Актуальная — информация, ценная в данный момент времени.

Достоверная — информация, полученная без искажений.

Понятная — информация, выраженная на языке, понятном тому, кому она предназначена.

Полная — информация, достаточная для принятия правильного решения или понимания.

Полезная — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

Информация обладает следующими свойствами:

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация обладает свойством устаревать, т. е. переста­ет отражать истинное положение дел.

Информация полна, если ее достаточно для понимания и принятия ре­шений. Как неполная, так и избыточная информация сдерживает принятие ре­шений или может повлечь ошибки.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления.

Ценность информации зависит от того, насколько она важна для реше­ния задачи, а также от того, насколько в дальнейшем она найдет применение в каких-либо видах деятельности человека.

Только своевременно полученная информация может принести ожидае­мую пользу. Одинаково нежелательны как преждевременная подача информации (когда она еще не может быть усвоена), так и ее задержка.

Если ценная и своевременная информация выражена непонятным обра­зом, она может стать бесполезной. Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

Информация должна преподноситься в доступной (по уровню восприя­тия) форме. Поэтому одни и те же вопросы по-разному излагаются в школь­ных учебниках и научных изданиях.

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, всевозмож­ных инструкциях.

Количество информацииможно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений. Это позволяет количественно измерять информацию. Существует формула, которая связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение: N = 2 i (формула Хартли). Иногда записывается иначе. Так как наступление каждого из N возможных событий имеет одинаковую вероятностьp = 1 / N, тоN = 1 / pи формула имеет вид I = log2 (1/p) = — log2 p

где pi — вероятность появления в сообщении i-го символа алфавита. Удобнее в качестве меры количества информации пользоваться не значением hi , а средним значением количества информации, приходящейся на один символ алфавита H = S pihi= — S pilog2pi

Значение Н достигает максимума при равновероятных событиях, то есть при равенстве всех pipi = 1 / N

В этом случае формула Шеннона превращается в формулу Хартли.

За единицу количества информациипринимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названабитом.

Минимальной единицей измерения количества информации является бит, а следующей по величине единицей — байт, причем:

1 байт = 8 битов = 2 3 битов.

В информатике система образования кратных единиц измерения несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10 n , где n = 3, 6, 9 и т. д., что соответствует десятичным приставкам «Кило» (10 3 ), «Мега» (10 6 ), «Гига» (10 9 ) и т. д.

В компьютере информация кодируется с помощью двоичной знаковой системы, и поэтому в кратных единицах измерения количества информации используется коэффициент 2 n

Так, кратные байту единицы измерения количества информации вводятся следующим образом:

1 килобайт (Кбайт) = 2 10 байт = 1024 байт;

1 мегабайт (Мбайт) = 2 10 Кбайт = 1024 Кбайт;

1 гигабайт (Гбайт) = 2 10 Мбайт = 1024 Мбайт.

Количество информации в сообщении.Сообщение состоит из последовательности знаков, каждый из которых несет определенное количество информации.

Если знаки несут одинаковое количество информации, то количество информации Icв сообщении можно подсчитать, умножив количество информации Iз, которое несет один знак, на длину кода (количество знаков в сообщении) К:

Так, каждая цифра двоичного компьютерного кода несет информацию в 1 бит. Следовательно, две цифры несут информацию в 2 бита, три цифры — в 3 бита и т. д. Количество информации в битах равно количеству цифр двоичного компьютерного кода

Двоичный компьютерный код

Информацио́нная энтропи́я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символапервичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Энтропия стала использоваться как мера полезной информации в процессах передачи сигналов по проводам. Под информацией Шеннон понимал сигналы нужные, полезные для получателя. Неполезные сигналы, с точки зрения Шеннона, это шум, помехи. Если сигнал на выходе канала связи является точной копией сигнала на входе то, с точки зрения теории информации, это означает отсутствие энтропии. Отсутствие шума означает максимум информации. Взаимосвязь энтропии и информации нашло отражение в формуле: H + Y = 1

где Н – энтропия, Y– информация. Этот вывод количественно был обоснован Бриллюэном .

где Н – энтропия Шеннона, Pi— вероятность некоторого события.

Информационная двоичная энтропия для независимых случайных событий свозможными состояниями (отдо,— функция вероятности) рассчитывается по формуле:

Эта величина также называется средней энтропией сообщения. Величина называется частной энтропией, характеризующей только-e состояние.

Таким образом, энтропия события является суммой с противоположным знаком всех произведений относительных частот появления события, умноженных на их жедвоичные логарифмы. Это определение для дискретных случайных событий можно расширить для функции распределениявероятностей.

Энтропия является количеством, определённым в контексте вероятностной модели для источника данных. Например, кидание монеты имеет энтропию:

битна одно кидание (при условии его независимости), а количество возможных состояний равно:возможных состояния (значения) («орёл» и «решка»).

У источника, который генерирует строку, состоящую только из букв «А», энтропия равна нулю: , а количество возможных состояний равно:возможное состояние (значение) («А») и от основания логарифма не зависит. Это тоже информация, которую тоже надо учитывать. Примеромзапоминающих устройствв которых используются разряды с энтропией равной нулю, но с количеством информации равным 1 возможному состоянию, т.е. не равным нулю, являются разряды данных записанных вПЗУ, в которых каждый разряд имеет только одно возможное состояние.

Некоторые биты данных могут не нести информации. Например, структуры данных часто хранят избыточную информацию, или имеют идентичные секции независимо от информации в структуре данных.

Количество энтропии не всегда выражается целым числом битов.

Неотрицательность: .

Ограниченность: Если все элементов изравновероятны,.

Если независимы, то.

Энтропия — выпуклая вверх функция распределения вероятностей элементов.

Если имеют одинаковое распределение вероятностей элементов, то.

Алфавит может иметь вероятностное распределение далекое от равномерного. Если исходный алфавит содержитсимволов, тогда его можно сравнить с «оптимизированным алфавитом», вероятностное распределение которого равномерное. Соотношение энтропии исходного и оптимизированного алфавита — это эффективность исходного алфавита, которая может быть выражена в процентах. Эффективность исходного алфавита ссимволами может быть также определена как его-арная энтропия.

Энтропия ограничивает максимально возможное сжатие без потерь (или почти без потерь), которое может быть реализовано при использовании теоретически — типичного набораили, на практике, —кодирования Хаффмана,кодирования Лемпеля — Зива — Велчаилиарифметического кодирования.

Источники:
  • http://www.polnaja-jenciklopedija.ru/nauka-i-tehnika/ponyatie-informatsii-informatika.html
  • http://infedu.ru/2016/10/07/test-informatsiya-i-informatsionnyie-protsessyi-8-klass/
  • http://spravochnick.ru/informatika/informacionnye_processy_i_informaciya/ponyatie_informacii_ee_vidy_i_svoystva/
  • http://studfiles.net/preview/4290065/