Понятие информации. Понятие информации, ее виды и свойства

Понятие информации. Термин информация происходит от латинского слова informatio, что означает сведения, разъяснения, изложение.

Информация это настолько общее и глубокое понятие, что его нельзя объяснить одной фразой.

В это слово вкладывается различный смысл в технике, науке и в житейских ситуациях. В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. Информировать в этом смысле означает сообщить нечто, неизвестное раньше. Информация сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы живые организмы, управляющие машины и др. в процессе жизнедеятельности и работы.

Информация есть характеристика не сообщения, а соотношения между сообщением и его потребителем. Без наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно. В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений букв, цифр, закодированных графических образов и звуков и т.п несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объм сообщения. Основной социальной ценностью, главным продуктом производства и основным товаром в информационном обществе является информация.

В настоящее время ни в одной из научных областей общества, в том числе и праве, нет единого определения информации. Принято считать, что информация - прежде всего философская категория. Существует множество философских концепций информации, и все осветить было бы крайне трудно. Известно философское определение американского ученого-математика Винера информация - это не энергия и не материя.

Н. Винер предложил информационное видение кибернетики как науки об управлении в живых организмах и технических системах. И под информацией стали понимать уже не просто сведения, а только те сведения, которые являются новыми и полезными для принятия решения, обеспечивающего достижение цели управления. Остальные сведения не считались информацией. В середине ХХ столетия К. Шенноном и У. Уивером были предложены вероятностные методы для определения количества передаваемой информации.

Однако такие вероятностные методы описывают лишь знаковую структуру информации и не затрагивают смысла, заложенного в ней в сообщении, сведениях. По определению К. Шеннона, бщения дляинформация - это снятая неопределенность. Под информацией в семантической теории информации, которая развивается вот уже много лет, понимается изучение смысла сообщения, полезность и ценность этого соопотребителя. Существование различных теорий информации так и не привело к выработке общепринятого теоретического определения этого понятия.

Существует огромное количество работ, в которых с разных позиций исследуются всевозможные аспекты этого понятия. В специальной литературе имеется целый ряд дефиниций информации негэропийный принцип информации, отрицание энтропии Л. Бриллюэн мера определенности в переданном сообщении, мера разнообразия У. Эшби, определенная порция порядка Б. Кадомцев, мера сложности структур Моль вероятность выбора Яглом мера выбора самоорганизующейся системы И. Мелик-Гайказян, передача сообщений между передающей и принимающей системами, что ведет к изменению разнообразия состояний последней В.С. Толстой, сведения о лицах, предметах, фактах, явлениях и процессах, которые не зависят от формы их представления.

Под информацией в быту житейский аспект понимают сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами. Под информацией в технике понимают сообщения, передаваемые в форме знаков или сигналов.

Простое и понятное каждому определение информации мы можем найти в Словаре русского языка С.И. Ожегова 1 сведения об окружающем мире и протекающих в нем процессах 2 сообщения, осведомляющие о положении дел, о состоянии чего-либо. До середины 20-х годов ХХ века под информацией действительно понимались сообщения и сведения, передаваемые людьми устным, письменным или иным способом. С середины ХХ столетия под информацией понимается обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом обмен сигналами в животном и растительном мире передача признаков от клетки к клетке, от организма к организму генетическая информация это одно из основных понятий кибернетики.

Несмотря на широту, практическую всеохватность совокупности определений информации, бросается в глаза их неконструктивность и вместе, и по отдельности, и после вставки в определение информатики. Неконструктивное определение, определение, не ведущее к уточнению, классификации, процессу организации практической работы с предметом определения, вряд ли полезно для информатики, если она является наукой.

Но везде и постоянно мы натыкаемся именно на такую организацию постановочной терминологии и информации, и информатики. Почему же так происходит Куда ведут современные тенденции поиска определения информации, можно ли получить положительный ответ при развитии количественной теории Классическая количественная теория информации состояла и ныне состоит из двух частей теории преобразования сообщений и сигналов, основную долю в которой составляют вопросы кодирования и декодирования, и собственно теории передачи сообщений и сигналов без шумов и с шумами с помехами в канале связи.

Ее основным утверждением, влияющим на понимание смысла термина информация, как мы уже знаем, является утверждение носителем сообщения или информации является сигнал. Этой информации придаются количественная и качественная мера. Иными словами, вводится количество информации и, по возможности, количество семантики вопрос о возможности существования собственного смысла сообщения без его интерпретации в передатчике и приемнике обычно не задается в информационной посылке.

Тем самым сохраняются сигнальные предпосылки характеристики сигнала, на котором отражается переносится сообщение, и есть предмет изучения информации. В этом-то случае и получается, что собственно информацию определять не надо никак. Информация - просто универсальное свойство всего существующего в материальном мире, представимое через сигнал.

После этого, конечно, можно утверждать, что, в зависимости от конкретного вида сигналов и их сочетаний, количество информации в них может быть больше или меньше. В литературе обычно приводится следующий пример. По теории информации если сообщение не снимает неопределенности, то оно не содержит информации, если же сообщение позволяет более определенно задать предмет, то в сообщении содержится информация. Так утверждается, что сообщение типа Волга впадает в Каспийское море для человека, знающего географию, не содержит информацию, так как не несет ничего нового, но для школьника младших классов может обладать элементом новизны и тогда является информативным.

Степень неопределенности сообщения стали измерять величиной, получившей название энтропия и являющейся функцией вероятности. Если вероятность равна 1, то энтропия равна нулю, а если вероятность равна 0, то энтропия равна бесконечности. Количество информации, полученное как разность между начальной энтропией до получения сообщения и конечной энтропией после получения сообщения, называется негэнтропией отрицательной энтропией.

Поэтому информацию иногда называют отрицательной энтропией. Соответственно у информации и у энтропии одна единица измерения бит. После энтропийно-негэнтропийного подхода к информации некоторое распространение получил подход комбинаторный, когда количество информации определяется как функция числа элементов конечного множества в их комбинаторных отношениях.

В литературе можно встретить пример, когда мерой количества информации, содержащейся в некотором объекте А, относительно объекта В, берется минимальная длина программы, на основе которой можно однозначно преобразовать объект А в объект В отголосок Колмогоровского предложения определения сложности системы по ее программному описанию. К реальной жизни привязать такие экзерциции довольно трудно, поэтому в другом варианте информация это отражение разнообразия, то есть воспроизведение разнообразия одного объекта в другом объекте в результате их взаимодействия.

В такой концепции бит также является единицей измерения информации, которую получает приемник информации, осуществляя выбор из двух равновероятных возможностей разнообразия. Если же объекты не различаются, то их совокупность не содержит информации. Так если в урне обнаружено два шара, из которых один белый, а второй черный, то оба вместе они несут в себе разнообразие - информацию - в один бит. Совокупность двух шаров одного цвета предлагается считать не содержащей информации.

Основоположником концепции разнообразия является английский нейрофизиолог У.Р.Эшби. По его утверждению информация не может передаваться в большем количестве, чем позволяет количество разнообразия. Можно привести еще много вариантов и подходов к пониманию информации, но сказанного довольно, чтобы понять если информация свойство материи и передается физическим сигналом, распространяющимся в физическом носителе, то ее количество может быть определено множеством подходов, в зависимости от текущего желания исследователя или каждой конкретной задачи, которую он должен решить.

Качественная же сторона вообще не раскрыта в теории информации, здесь нет никакой ясности ситуации. Последнее достаточно понятно, ибо все в том же модельно-математическом ключе ставится задача, вряд ли имеющая решение задача нахождения количества смысла, количества семантики. Обратим внимание на то, что далеко не каждое свойство имеет осмысленное количественное выражение.

Известные в математике качественные шкалы совсем не обязательно имеют метрику, т.е. некоторый способ сравнения количеств этого качества. Возможно, что под информацией все-таки надо понимать что-то другое, что-то, дающее более определенные ее характеристики, вообще не воспринимать ее как свойство или как информационный сигнал Ограничить ее количественное понимание количественной теорией Информация - это одно из основных универсальных свойств предметов, явлений, процессов объективной действительности, человека и созданных им управляющих компьютеров, заключающееся в способности воспринимать внутреннее состояние и воздействия окружающей среды и сохранять определенное время результаты его, преобразовывать полученные сведения и передавать результаты обработки другим предметам, явлениям, процессам, машинам, людям.

Конечно, из этого определения понять, что такое информация, также как и из выше приведенных, более чем затруднительно. Для обоснованного введения понятия информатика нужно найти более убедительные аргументы, чем дает нам такое определение информации.

Теория же информации является самодостаточной, для того, чтобы мы вполне могли обходиться без информатики, а собственные теории, принадлежащие информатике как науке пока еще только зарождаются. Поэтому важным этапом развития теории информации считается попытка ряда ученых обратиться к человеческому аспекту информационного процесса, к его разъяснительному смыслу, к понятию информатизации.

В конечном итоге сегодня во всех литературных источниках обычно указываются три общепринятые, почти классические, направления развития исследований, связанных со свойственно-количественным подходом к понятию информации - математический, количественный разработка математического аппарата, отражающего основные свойства информацииВот так и пишут в литературе свойства информации, которая сама изначально определена как свойство или исследования в области сигнального понимания информации в полном соответствии с областью, приписываемой теории информации - понятийный, количественно-качественный исследование основных свойств информации - измерение ее ценности, полезности и т.п. или исследования в области понимания информации на уровне создания разнообразных подходов к ее количественно-качественному измерению - информатизационный использование информационных методов в других науках в социологии, лингвистике, биологии и др. или рассмотрение информации в ее разъяснительном смысле, определенном как процесс информирования, или информатизации, происходящий стихийно или осуществляемый с какой-либо осознанной целью.

Общим во всех перечисленных направлениях них является все то же отсутствие необходимости определения понятия информация, да и что такое информационный метод с его человеческим аспектом тоже никто вразумительно не определяет 2.2. Передача информации.

Всякое событие, всякое явление служит источником информации. Информация передатся в виде сообщений от некоторого источника информации к е примнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал.

Этот сигнал посылается по каналу связи. В результате в примнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением. Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих искажение и потерю информации. Любое событие или явление может быть выражено по-разному, разным способом, разным алфавитом.

Чтобы информацию более точно и экономно передать по каналам связи, ее надо соответственно закодировать. Информация не может существовать без материального носителя, без передачи энергии. Закодированное сообщение приобретает вид сигналов-носителей информации. Они-то и идут по каналу. Выйдя на приемник, сигналы должны обрести вновь общепонятный вид. С этой целью сигналы пробегают декодирующее устройство, приобретая форму, удобную для абонента.

Система связи сработала, цель достигнута. Когда говорят о каналах связи, о системах связи, чаще всего для примера берут телеграф. Но каналы связи - понятие очень широкое, включающее множество всяких систем, самых разных. Общая схема передачи информации представлена на рис.1 канал связи Рис.1.Общая схема передачи информации. 2.3.

Конец работы -

Эта тема принадлежит разделу:

Информация как объект коммерческой деятельности

Возникла необходимость классифицировать поступления по темам, организовывать их хранение, доступ к ним, понять закономерности движения информации в.. Распространение информации уже не мыслимо без применения новых информационных.. Новые информационные технологии уже давно прошли тот этап, когда они разрабатывались для внутренних потребностей той..

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ:

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Понятие информации в современном научном мире неоднозначно. Несмотря на то, что появилось оно довольно-таки давно, до сих пор ученые не могут дать строгое определение данному термину и утверждают, что его следует рассматривать в качестве неопределимого первичного понятия. В учебниках по информатике можно найти такие определения:

Информация - сведения или знания о чем-либо; знания, которые можно собрать, хранить, передать, обработать и использовать. Информация в информатике - базовое понятие науки, так как информатикой называют науку об информации, ее структуре и свойствах, способах ее обработки и передачи. Информатика изучает информацию при помощи главного инструмента - компьютера.

Сам термин в переводе с латинского означает «сведения», «изложение». Сегодня наука находится в поисках общих свойств и закономерностей, которые присущи информации, но пока информация в информатике - интуитивное понятие, которое имеет разные смыслы в разных сферах человеческой деятельности.

Несмотря на наличие большого количества определений, выделим наиболее общее и понятное. Информация - отражение окружающего мира посредством сигналов и знаков. Ценность заключается в новых знаниях, которые содержатся в нем.

В информатике. В зависимости от способа восприятия, она может быть воспринята при помощи глаз, обоняния, вкуса и осязания. Кроме того, по форме представления выделяют текстовую, числовую, графическую и звуковую. В этой же классификации находится и видеоинформация.

Информация в информатике обладает рядом свойств. К ним относится полнота, достоверность, актуальность, доступность, защищенность, релевантность (способность соответствовать запросам), эргономичность.

Информация как особый вид ресурса обладает свойствами, характерными для него. К таковым относятся: запоминаемость, воспроизводимость, передаваемость, преобразуемость и стираемость.

При этом может быть любой предмет материального мира, волны (акустические, электромагнитные и т.д.), вещество в любом состоянии. Есть также машинные носители (например, магнитная лента). Передается информация в информатике при помощи сигналов.

Сигнал - физический процесс, который имеет информационное значение и может быть дискретным или непрерывным. Первый принимает лишь конечное число значений за определенное число моментов времени, а непрерывный - тот, который постоянно изменяется как во времени, так и по амплитуде. Сигналы, которые несут символическую или текстовую информацию - дискретные. В качестве примеров аналоговых сигналов можно привести телефонную связь или телевидение.

В наши развивается очень стремительно, и уже сегодня в науке об информации выделяют ряд новых направлений, таких как программирование, кибернетика, искусственный интеллект, вычислительная техника, информационные системы и теоретическая в информатике - сравнительно новое в лексиконе человека, и несмотря на повсеместное использование этого слова в речи, содержание его остается нечетким и размытым. Информатика связана с информацией и ее обработкой на компьютерах. На интуитивном уровне все ясно, однако, если присмотреться поближе, вопрос становится намного сложнее, чем может показаться с первого взгляда.

Так как компьютеры сегодня широко распространены, и человечество переживает информационный бум, азы информатики должны быть понятны каждому современному индивиду, который хотя бы немного хочет шагать в ногу со временем. Именно эти факторы повлияли на то, что преподавание информатики введено в школьный курс и каждый молодой человек имеет возможность освоить эту новую, но очень интересную и нужную науку.

Понятие информации

В понятие «информация» (от лат. informatio – сведения, разъяснения, изложение) вкладывается различный смысл соответственно той отрасли, где это понятие рассматривается: в науке, технике, обычной жизни и т.д. Обычно под информацией подразумевают любые данные или сведения, которые кого-либо интересуют (сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.).

В литературе можно найти большое число определений термина «информация» , которые отражают различные подходы к его толкованию:

Определение 1

  • Информация – сведения (сообщения, данные) независимо от формы их представления («Федеральный закон РФ от $27.07.2006$ г. № $149$-ФЗ Об информации, информационных технологиях и о защите информации»);
  • Информация – сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством (Толковый словарь русского языка Ожегова).

Говоря о компьютерной обработке данных под информацией понимают некоторую последовательность символов или знаков (букв, цифр, закодированных графических образов и звуков и т. п.), которая несет смысловую нагрузку и представлена в понятном для компьютера виде.

В информатике наиболее часто используется следующее определение этого термина:

Определение 2

Информация – это осознанные сведения (знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т.д.) об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования.

Одно и то же информационное сообщение (статья в журнале, объявление, рассказ, письмо, справка, фотография, телепередача и т. п.) может нести разное количество и содержание информации для различных людей в зависимости от накопленных ими знаниями, от уровня доступности этого сообщения и от уровня интереса к нему. Например, новость, составленная на китайском языке, не несет никакой информации человеку, который не знает этого языка, но может быть полезной для человека со знанием китайского. Никакой новой информации не будет содержать и новость, изложенная на знакомом языке, если ее содержание непонятно или уже известно.

Информацию рассматривают как характеристику не сообщения, а соотношения между сообщением и его получателем.

Виды информации

Информация может существовать в различных видах :

  • текст, рисунки, чертежи, фотографии;
  • световые или звуковые сигналы;
  • радиоволны;
  • электрические и нервные импульсы;
  • магнитные записи;
  • жесты и мимика;
  • запахи и вкусовые ощущения;
  • хромосомы, через которые передаются по наследству признаки и свойства организмов, и т. д.

Различают основные виды информации , которые классифицируют по ее форме представления, способам ее кодирования и хранения:

  • графическая – один из древнейших видов, с помощью которого хранили информацию об окружающем мире в виде наскальных рисунков, а затем в виде картин, фотографий, схем, чертежей на различных материалах (бумага, холст, мрамор и др.), которые изображают картины реального мира;
  • звуковая (акустическая) – для хранения звуковой информации в $1877$ г. было изобретено звукозаписывающее устройство, а для музыкальной информации – разработан способ кодирования с использованием специальных символов, который дает возможность хранить ее как графическую информацию;
  • текстовая – кодирует речь человека с помощью специальных символов – букв (для каждого народа свои); для хранения используется бумага (записи в тетради, книгопечатание и т.п.);
  • числовая – кодирует количественную меру объектов и их свойств в окружающем мире с помощью специальных символов – цифр (для каждой системы кодирования свои); особенно важной стала с развитием торговли, экономики и денежного обмена;
  • видеоинформация – способ хранения «живых» картин окружающего мира, который появился с изобретением кино.

Существуют также виды информации, для которых еще не изобретены способы кодирования и хранения – тактильная информация, органолептическая и др.

Первоначально информация передавалась на большие расстояния с помощью кодированных световых сигналов, после изобретения электричества – передачи закодированного определенным образом сигнала по проводам, позже – используя радиоволны.

Замечание 1

Основателем общей теории информации считают Клода Шеннона, который также положил основу цифровой связи, написав книгу «Математическая теория связи» в $1948$ г., в которой впервые обосновал возможность использования двоичного кода для передачи информации.

Первые компьютеры являлись средством для обработки числовой информации. С развитием компьютерной техники ПК стали использовать для хранения, обработки, передачи различного вида информации (текстовой, числовой, графической, звуковой и видеоинформации).

Хранить информацию с помощью ПК можно на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой памяти (флэш-память и пр.). Эти методы постоянно совершенствуются, изобретаются и носители информации. Все действия с информацией выполняет центральный процессор ПК.

Предметы, процессы, явления материального или нематериального мира, если их рассматривать с точки зрения их информационных свойств, называют информационными объектами.

Над информацией можно выполнять огромное количество различных информационных процессов, среди которых:

  • создание;
  • прием;
  • комбинирование;
  • хранение;
  • передача;
  • копирование;
  • обработка;
  • поиск;
  • воспринятие;
  • формализация;
  • деление на части;
  • измерение;
  • использование;
  • распространение;
  • упрощение;
  • разрушение;
  • запоминание;
  • преобразование;

Свойства информации

Информация, как и любой объект, обладает свойствами , наиболее важными среди которых, с точки зрения информатики, являются:

  • Объективность. Объективная информация – существующая независимо от человеческого сознания, методов ее фиксации, чьего-либо мнения или отношения.
  • Достоверность. Информация, отражающая истинное положение дел, является достоверной. Недостоверная информация чаще всего приводит к неправильному пониманию или принятию неправильных решений. Устаревание информации может из достоверной информации сделать недостоверную, т.к. она уже не будет отражением истинного положения дел.
  • Полнота. Информация является полной, если она достаточна для понимания и принятия решений. Неполная или избыточная информация может привести к задержке принятия решения или к ошибке.
  • Точность информации – степень ее близости к реальному состоянию объекта, процесса, явления и т. п.
  • Ценность информации зависит от ее важности для принятия решения, решения задачи и дальнейшей применимости в каких-либо видах деятельности человека.
  • Актуальность. Только своевременность получения информации может привести к ожидаемому результату.
  • Понятность. Если ценную и своевременную информацию выразить непонятно, то она, скорее всего, станет бесполезной. Информация будет понятной, когда она, как минимум, выражена понятным для получателя языком.
  • Доступность. Информация должна соответствовать уровню восприятия получателя. Например, одни и те же вопросы по-разному излагаются в учебниках для школы и вуза.
  • Краткость. Информация воспринимается гораздо лучше, если она представлена не подробно и многословно, а с допустимой степенью сжатости, без лишних деталей. Краткость информации незаменима в справочниках, энциклопедиях, инструкциях. Логичность, компактность, удобная форма представления облегчает понимание и усвоение информации.

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ

Государственное образовательное учреждение высшего профессионального образования

«САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
АЭРОКОСМИЧЕСКОГО ПРИБОРОСТРОЕНИЯ»

Факультет N4 Факультет вычислительных систем и программирования

ОЦЕНКА

ПРЕПОДАВАТЕЛЬ

РАБОТУ ВЫПОЛНИЛА

Санкт-Петербург 2011

Понятие информации и информатики

Основные понятия информации

Большинство ученых в наши дни отказываются от попыток дать строгое определение информации и считают, что информацию следует рассматривать как первичное, неопределимое понятие подобно множества в математике. Некоторые авторы учебников предлагают следующие определения информации:

Информация – это знания или сведения о ком-либо или о чем-либо.
Информация – это сведения, которые можно собирать, хранить, передавать, обрабатывать, использовать.
Информатика – наука об информации
или
– это наука о структуре и свойствах информации, способах сбора, обработки и передачи информации
или
– информатика, изучает технологию сбора, хранения и переработки информации, а компьютер основной инструмент в этой технологии.

Термин информация происходит от латинского слова informatio, что означает сведения, разъяснения, изложение. В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

1. в быту информацией называют любые данные, сведения, знания, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.;

2. в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов (в этом случае есть источник сообщений, получатель (приемник) сообщений, канал связи);

3. в кибернетике под информацией понимают ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;

4. в теории информации под информацией понимают сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Информация – это отражение внешнего мира с помощью знаков или сигналов.
Информационная ценность сообщения заключается в новых сведениях, которые в нем содержатся (в уменьшении незнания).

Свойства информации:

1. полнота - свойство информации исчерпывающе (для данного потребителя) характеризовать отображаемый объект или процесс;

2. актуальность- способность информации соответствовать нуждам потребителя в нужный момент времени;

3. достоверность - свойство информации не иметь скрытых ошибок. Достоверная информация со временем может стать недостоверной, если устареет и перестанет отражать истинное положение дел;

4. доступность - свойство информации, характеризующее возможность ее получения данным потребителем;

5. релевантность - способность информации соответствовать нуждам (запросам) потребителя;

6. защищенность - свойство, характеризующее невозможность несанкционированного использования или изменения информации;

7. эргономичность - свойство, характеризующее удобство формы или объема информации с точки зрения данного потребителя.

Информацию следует считать особым видом ресурса, при этом имеется в виду толкование "ресурса" как запаса неких знаний материальных предметов или энергетических, структурных или каких-либо других характеристик предмета. В отличие от ресурсов, связанных с материальными предметами, информационные ресурсы являются неистощимыми и предполагают существенно иные методы воспроизведения и обновления, чем материальные ресурсы.

С этой точки зрения можно рассмотреть такие свойства информации:

1. запоминаемость;

2. передаваемость;

3. воспроизводимость;

4. преобразуемость;

5. стираемость.

Запоминаемость - одно из самых важных свойств. Запоминаемую информацию будем называть макроскопической (имея в виду пространственные масштабы запоминающей ячейки и время запоминания). Именно с макроскопической информацией мы имеем дело в реальной практике.

Передаваемость информации с помощью каналов связи (в том числе с помехами) хорошо исследована в рамках теории информации К.Шеннона. В данном случае имеется в виду несколько иной аспект - способность информации к копированию, т.е. к тому, что она может быть “запомнена” другой макроскопической системой и при этом останется тождественной самой себе. Очевидно, что количество информации не должно возрастать при копировании.

Воспроизводимость информации тесно связана с ее передаваемостью и не является ее независимым базовым свойством. Если передаваемость означает, что не следует считать существенными пространственные отношения между частями системы, между которыми передается информация, то воспроизводимость характеризует неиссякаемость и неистощимость информации, т.е. что при копировании информация остается тождественной самой себе.

Фундаментальное свойство информации - преобразуемость . Оно означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором ее количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может.

Свойство стераемости информации также не является независимым. Оно связано с таким преобразованием информации (передачей), при котором ее количество уменьшается и становится равным нулю.

· Данных свойств информации недостаточно для формирования ее меры, так как они относятся к физическому уровню информационных процессов.

Информация всегда связана с материальным носителем.

Носителем информации может быть:

1) любой материальный предмет (бумага, камень и т.д.);
волны различной природы: акустическая (звук), электромагнитная (свет,радиоволна) и т.д.;

2) вещество в различном состоянии: концентрация молекул в жидком растворе, температура и т.д.

Сигнал - способ передачи информации. Это физический процесс, имеющий информационное значение. Он может быть непрерывным или дискретным.
Сигнал называется дискретным, если он может принимать лишь конечное число значений в конечном числе моментов времени.
Аналоговый сигнал - сигнал, непрерывно изменяющийся по амплитуде и во времени.
Сигналы, несущие текстовую, символическую информацию, дискретны .
Аналоговые сигналы используют в телефонной связи, радиовещании, телевидении.

Говорить об информации вообще, а не применительно к какому-то ее конкретному виду беспредметно. Классифицировать ее можно:

· по способам восприятия (визуальная, тактильная и т.д.);

· по форме представления (текстовая, числовая, графическая и т. д.);

· по общественному значению (массовая, специальная, личная).

Примеры получения информации:

1) динамик компьютера издает специфический звук, хорошо знакомый Васе, - следовательно, пришло новое сообщение по ICQ;

2) с вертолета пожарной охраны в глубине леса замечен густой дым - обнаружен новый лесной пожар;

3) всевозможные датчики, расположенные в сейсмологически неустойчивом районе, фиксируют изменение обстановки, характерное для приближающегося землетрясения.

Основные направления в информатике: кибернетика, программирование, вычислительная техника, искусственный интеллект, теоретическая информатика, информационные системы. Понятие информатики является относительно новым в лексиконе современного человека. Несмотря на повсеместное употребление, его содержание остается не проясненным до конца в силу своей новизны. Интуитивно ясно, что оно связано с информацией, а также с ее обработкой на компьютерах. Это подтверждается существующей легендой о происхождении данного слова: считается, что оно составлено из двух слов – Информация и автоматика (как средство преобразования информации).

Вследствие широкого распространения компьютеров и информационного бума, который переживает человечество, с азами информатики должен быть знаком всякий грамотный современный человек; вот почему ее преподавание включено в курс средней школы и продолжается в высшей школе.

Основные понятия информатики

Информатика – область человеческой деятельности, связанная с процессами преобразования информации с помощью компьютеров и других средств вычислительной техники. С информатикой часто связывают одно из следующих понятий: это либо совокупность определенных средств преобразования информации, либо фундаментальная наука, либо отрасль производства, либо прикладная дисциплина.

Информатика как совокупность средств преобразования информации включает технические средства (hardware), программные продукты (software), математические методы, модели и типовые алгоритмы (brainware). В состав технических средств входят компьютеры и связанные с ними периферийные устройства (мониторы, клавиатуры, принтеры и плоттеры, модемы и т.д.), линии связи, средства оргтехники и т.п., т.е. те материальные ресурсы, которые обеспечивают преобразование информации, причем главенствующую роль в этом списке играет компьютер. По своей специфике компьютер нацелен на решение очень широкого круга задач по преобразованию информации, при этом выбор конкретной задачи при использовании компьютера определяется программным средством, под управлением которого функционирует компьютер. К программным продуктам относятся операционные системы и их интегрированные оболочки, системы программирования и проектирования программных продуктов, различные прикладные пакеты, такие, как текстовые и графические редакторы, бухгалтерские и издательские системы и т.д. Конкретное применение каждого программного продукта специфично и служит для решения определенного круга задач прикладного или системного характера. Математические методы, модели и типовые алгоритмы являются тем базисом, который положен в основу проектирования и изготовления программного, технического средства или другого объекта в силу исключительной сложности последнего и, как следствие, невозможности умозрительного подхода к созданию.

Понятие информации

Слово “информация” происходит от латинского слова informatio , что в переводе означает сведение, разъяснение, ознакомление.

Понятие “информация” в курсе информатики является базовым (основным), его нельзя дать через другие, более простые понятия. В геометрии, например, базовыми являются понятия: “точка”, “луч”, “плоскость”. Содержание базовых понятий в любой науке поясняется на примерах или выявляется путем сопоставления с содержанием других понятий.

Информация – это сведения об окружающем мире, которые повышают уровень осведомленности человека.

Приведем для сопоставления также некоторые другие определения и характеристики:

  • Информация - содержание сообщения или сигнала; сведения, рассматриваемые в процессе их передачи или восприятия, позволяющие расширить знания об интересующем объекте.
  • Информация - является одной из фундаментальных сущностей окружающего нас мира.
  • Информация - отраженное разнообразие, то есть нарушение однообразия.
  • Информация - одно из основных универсальных свойств материи.
  • В бытовом смысле под информацией понимают те сведения, которые человек получает от окружающей природы и общества с помощью органов чувств, которые повышают его уровень осведомленности.
  • В науке под информацией понимается новое полученное знание. Например, математик включит в это понятие те сведения, которые человек не получал, а сам создал с помощью умозаключений.
  • В кибернетике понятие информация связано с процессами управления в сложных системах, та часть знаний, которая используется для ориентирования, активного действия, управления, в целях сохранения, развития системы;
  • В философском смысле - это взаимодействие, отражение, познание.
  • В вероятностном смысле - это сведения, которые снимают полностью или уменьшают существующую до их получения неопределенность.
  • В информатике информация - это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты.
  • В технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов.

Виды информации

По способу восприятия информацию разделяют на следующие виды: визуальная, аудиальная, вкусовая, обонятельная и тактильная . Такое деление основывается на чувствах, с помощью которых информация воспринимается человеком: зрение, слух, вкус, обоняние и осязание соответственно. Научные исследования показывают, что свыше 90% информации, получаемой человеком из внешнего мира, приходится на зрение и слух, около 10% - на вкус, обоняние и осязание. Мир живой природы дает великое множество примеров, когда органы чувств (органы получения информации) достигли удивительного совершенства: зоркость глаза орла, круговое поле зрения стрекозы, тонкость обоняния и слуха диких животных. Встречаются у животных и органы чувств, которых человек не имеет. Это боковая линия у рыб, ультразвуковой "локатор" у летучих мышей. У саламандры под кожей на голове есть железа, которая способна различать солнечный свет ("третий глаз"). А у змеи между глазами и носом есть участок кожи, очень чувствительный к теплу. С помощью этого органа змея воспринимает тепловую картину мира.

Человек создает приборы, позволяющие получать информацию, которая недоступна ему в непосредственных ощущениях. Микроскопы, телескопы, термометры, спидометры - перечень, который можно продолжать и продолжать. Аналогам органов чувств человека в технических приборах соответствуют различные датчики . Получение информации называется вводом . В персональном компьютере за ввод информации отвечают специальные устройства ввода: клавиатура, сканер, дигитайзер, микрофон, мышь и многое другое.

Человек воспринимает информацию с помощью органов чувств. Воспринимаемая информация поступает в виде энергетических сигналов (свет, звук, тепло) и излучений (вкус и запах), причем процесс поступления этих сигналов происходит непрерывно.

Чувствительные органы живого организма в основном по своей природе дискретны . Зрительные образы воспринимают клетки сетчатки глаза, тактильные ощущения возникают в чувствительных нейронах, запахи воспринимаются рецепторами обоняния, каждый из которых в любой момент времени находится либо в возбужденном, либо невозбужденном состоянии. Все чувственные восприятия преобразуются в организме из дискретной формы в непрерывную, причем информация хранится не в отдельных нейронах головного мозга, а распределена по нему целиком. Непрерывность представления, например, зрительной информации позволяет человеку уверенно воспринимать динамику окружающего мира. Дискретные величины принимают не все возможные, а только определенные значения, и их можно пересчитать.

В технике непрерывная информация называется аналоговой. Многие устройства, созданные человеком, работают с аналоговой информацией. Луч кинескопа телевизора перемещается по экрану, вызывая свечение точек. Чем сильнее луч, тем ярче свечение. Изменение свечения происходит плавно и непрерывно. Проигрыватель грампластинок, ртутный термометр, манометр - примеры аналоговых устройств. Некоторые бытовые приборы могут иметь как аналоговую, так и цифровую конструкцию. К примеру, тонометр - прибор для измерения кровяного давления. Существенным отличием является то, что аналоговый прибор может выдать абсолютно произвольную величину показаний (чуть больше или меньше деления), а набор показаний у цифрового прибора ограничен количеством цифр на индикаторе. Компьютер работает исключительно с дискретной (цифровой ) информацией. Память компьютера состоит из отдельных битов, а значит, дискретна. Датчики, посредством которых воспринимается информация, измеряют в основном непрерывные характеристики - температуру, нагрузку, напряжение и т.д. Встает проблема преобразования аналоговой информации в дискретную форму. Идея дискретизации непрерывного сигнала заключается в следующем. Пусть имеется некоторый непрерывный сигнал. Можно допустить, что на маленьких промежутках времени значение характеристик этого сигнала постоянно и меняется мгновенно в конце каждого промежутка. "Нарезав" весь временной интервал на эти маленькие кусочки и взяв на каждом из них значение характеристик, получим сигнал с конечным числом значений. Таким образом, он станет дискретным. Непрерывная величина часто ассоциируется с графиком функции, а дискретная - с таблицей ее значений.

Такой процесс называется оцифровкой аналогового сигнала , а преобразование информации - аналого-цифровым преобразованием . Точность преобразования зависит от величины дискретности - частоты дискретизации: чем выше частота дискретизации, тем ближе цифровая информация к качеству аналоговой. Но и тем больше вычислений приходится делать компьютеру и тем больше информации хранить и обрабатывать. Классификация информации

Информацию можно условно делить на различные виды, основываясь на том или ионом ее свойстве или характеристике, например по способу кодирования, сфере возникновения, способу передачи и восприятия и общественному назначению и т.д..

  • По способу кодирования

По способу кодирования сигала информацию можно разделить на аналоговую и цифровую. Аналоговый сигнал информацию о величине исходного параметра, о котором сообщается в информации, представляет в виде величины другого параметра, являющегося физической основой сигнала, его физическим носителем. Например, величины углов наклона стрелок часов - это основа для аналогового отображения времени. Высота ртутного столбика в термометре - это тот параметр, который дает аналоговую информацию о температуре. Чем больше длина столика в термометре, тем больше температура. Для отображения информации в аналоговом сигнале используются все промежуточные значения параметра от минимального до максимального, т.е. теоретически бесконечно большое их число. Цифровой сигнал использует в качестве физической основы для записи и передачи информации только минимальное количество таких значений, чаще всего только два. Например, в основе записи информации в ЭВМ применяются два состояния физического носителя сигнала - электрического напряжения. Одно состояние - есть электрическое напряжение, условно обозначаемое единицей (1), другое - нет электрического напряжения, условно обозначаемое нулем (0). Поэтому для передачи информации о величине исходного параметра необходимо использовать представление данных в виде комбинации нулей и единиц, т.е. цифровое представление. Интересно, что одно время были разработаны и использовались вычислительные машины, в основе которых стояла троичная арифметика, так как в качестве основных состояний электрического напряжения естественно взять три следующие: 1) напряжение отрицательно, 2) напряжение равно нулю, 3)напряжение положительно. До сих пор выходят научные работы, посвященные таким машинам и описывающие преимущества троичной арифметики. Сейчас в конкурентной борьбе победили производители двоичных машин. Будет ли так всегда? Приведем некоторые примеры бытовых цифровых устройств. Электронные часы с цифровой индикацией дают цифровую информацию о времени. Калькулятор производит вычисления с цифровыми данными. Механический замок с цифровым кодом тоже можно назвать примитивным цифровым устройством.

  • По сфере возникновения

По сфере возникновения информацию можно классифицировать следующим образом. Информацию, возникшую в неживой природе называют элементарной, в мире животных и растений - биологической, в человеческом обществе - социальной. В природе, живой и неживой, информацию несут: цвет, свет, тень, звуки и запахи. В результате сочетания цвета, света и тени, звуков и запахов возникает эстетическая информация. Наряду с естественной эстетической информацией, как результат творческой деятельности людей возникла другая разновидность информации - произведения искусств. Кроме эстетической информации в человеческом обществе создается семантическая информация, как результат познания законов природы, общества, мышления. Деление информации на эстетическую и семантическую очевидно очень условно, просто необходимо понимать, что в одной информации может преобладать ее семантическая часть, а в другой эстетическая.

  • По способу передачи и восприятия

По способу передачи и восприятия информацию принято классифицировать следующим образом. Информация, передаваемая в виде видимых образов и символов называется визуальной; передаваемая звуками - аудиальной; ощущениями - тактильной; запахами - вкусовой. Информация, воспринимаемая оргтехникой и компьютерами называется машинно-ориентированной информацией. Количество машинно-ориентированной информации постоянно увеличивается в связи с непрерывно возрастающим использованием новых информационных технологий в различных сферах человеческой жизни.

  • По общественному назначению

По общественному назначению информацию можно подразделять на массовую, специальную и личную. Массовая информация подразделяется в свою очередь на общественно-политическую, обыденную и научно-популярную. Специальная информация подразделяется на производственную, техническую, управленческую и научную. Техническая информация имеет следующие градации:

станкостроительная,

машиностроительная,

инструментальная...

  • Научная информация подразделяется на биологическую, математическую, физическую...
  • По форме представления
  1. Текстовая – информация, которая содержится в печатных или письменных документах или отображается техническими устройствами в виде текста.
  2. Графическая – картины, рисунки, фотографии, графики, схемы, видеоизображение на экране телевизора или компьютера.
  3. Звуковая – устная речь, музыка, шумовые эффекты.
  4. Числовая – наборы числовых данных.
  5. Управляющая – команды и инструкции, которые передаются определенным исполнителям (людям, животным, роботам, станкам с ЧПУ, компьютерам).
  6. Мультимедийная – информация, которая содержит в себе несколько видов информации (кино).

Свойства информации

Информация необходима человеку не вообще, а конкретно в нужное время для ориентирования в окружающем мире и принятия решений о дальнейших действиях.

Чтобы информация способствовала принятию правильных решений, она должна характеризоваться следующими свойствами:

  • полезность или релевантность (соответствие запросам потребителя);
  • достоверность (истинность положения дел, отсутствие скрытых ошибок);
  • полнота (достаточно для понимания и принятия решения);
  • актуальность или своевременность (важность для настоящего времени);
  • доступность (возможность ее получения данным потребителем);
  • защищенность (невозможность несанкционированного использования или изменения);
  • эргономичность (удобство формы или объема с точки зрения данного потребителя);
  • объективность (не зависит от чьего-либо мнения);
  • понятность (понятно выражена).
  • Полнота (информация полна, если ее достаточно для принятия решений)
  • Точность (определяется степенью близости к реальному состоянию объекта, процесса, явления)

Свойства информации подразделяются на:

Атрибутивные;

Прагматические;

Динамические.

Атрибутивные - это те свойства, без которых информация не существует. Прагматические свойства характеризуют степень полезности информации для пользователя, потребителя и практики. Динамические свойства характеризуют изменение информации во времени.

Дискретность

Атрибутивным свойствам информации, на которое необходимо обратить внимание, является свойство дискретности. Содержащиеся в информации сведения, знания - дискретны, т.е. характеризуют отдельные фактические данные, закономерности и свойства изучаемых объектов, которые распространяются в виде различных сообщений, состоящих из линии, составного цвета, буквы, цифры, символа, знака.

Непрерывность

Информация имеет свойство сливаться с уже зафиксированной и накопленной ранее, тем самым способствуя поступательному развитию и накоплению. В этом находит свое подтверждение еще одно атрибутивное свойство информации - непрерывность.

Смысла и новизна

Прагматические свойства информации проявляются в процессе использования информации. В первую очередь к данной категории свойств отнесем наличие смысла и новизны информации, которое характеризует перемещение информации в социальных коммуникациях и выделяет ту ее часть, которая нова для потребителя.

Полезность

Полезной называется информация, уменьшающей неопределенность сведений об объекте. Дезинформация расценивается как отрицательные значения полезной информации. Встречается применение термина полезности информации для описания, какое влияние на внутреннее состояние человека, его настроение, самочувствие, наконец здоровье, оказывает поступающая информация. В этом смысле полезная или положительная информация - это та, которая радостно воспринимается человеком, способствует улучшению его самочувствия, а отрицательная информация угнетающе действует на психику и самочувствие человека, может привести к ухудшению здоровья, инфаркту, например.

Ценность

Следующим прагматическим свойством информации является ее ценность. Необходимо обратить внимание, что ценность информации различна для различных потребителей и пользователей.

Кумулятивность

Свойство кумулятивности характеризует накопление и хранение информации.

Рост информации

Прежде всего необходимо отметить свойство роста информации. Движение информации в информационных коммуникациях и постоянное ее распространение и рост определяют свойство многократного распространения или повторяемости. Хотя информация и зависима от конкретного языка и конкретного носителя, она не связана жестко ни с конкретным языком ни с конкретным носителем. Благодаря этому информация может быть получена и использована несколькими потребителями. Это свойство многократной используемости и проявление свойства рассеивания информации по различным источникам.

Старение

Среди динамических свойств необходимо также отметить свойство старения информации.