Libmonster ID: RU-8449
Автор(ы) публикации: О.И. КАЗАКОВ

Понятие "информация" емко и многопланово. На математическом уровне под информацией понимается последовательность символов, с которой связывается количественная характеристика- мера (объем) информации. На техническом уровне делается акцент на характеристиках сигналов - носителях информации - и физических свойствах каналов передачи сигналов. На бытовом уровне информация - это новости, вести или сообщения, причем на передний план выступает семантическая составляющая сообщения. Есть также некая эзотерическая компонента понятия "информация", которая сопоставима с понятием "знание" в самом широком смысле этого слова.

В статье в схематическом виде рассматривается связь между информацией как мерой сообщения и информацией как сообщением, имеющим семантическую составляющую. Отметим, что в точных науках информация является количеством, лишенным качества, поскольку смысл сообщения из анализа исключается.

Мера информации

Рассмотрим простейший алфавит, состоящий из двух символов (двоичный). Если последовательность состоит из п символов этого алфавита, то количество всевозможных комбинаций из п символов равно 2 n . Величина п имеет размерность "бит" (bit- сокращение от binary digital, "двоичное число") и характеризует меру информационного сообщения. Если алфавит состоит из ./V символов, то количество всевозможных комбинаций из п символов равно N n . Сопоставив это выражение с аналогичным для двоичного алфавита получим уравнение 2 I =N n , где /- эквивалентная длина последовательности символов двоичного алфавита, содержащего то же количество возможных комбинации, что и последовательность символов N-символьного алфавита. Решая данное уравнение относительно неизвестного I получаем выражение для меры информации:

I=n log2N, бит.

Ключевыми свойствами данного определения меры информации являются следующие. Во-первых, это свойство аддитивности. При объединении двух (и более) последовательностей из п 1 и п2 символов одного

стр. 115


и того же алфавита имеем I=(n I +n 2 )log2N=I 1 +l2, т.е. получаем аддитивное сложение меры информации. Во-вторых, это свойство инвариантности относительно количества комбинаций. Дня заданной величины I последовательность п символов из -символьного алфавита может быть эквивалентным образом записана в символах другого -символьного алфавита из k символов, причем требуемая длина последовательности k=I/log2K. Очевидно, что верным является и обратное: свойства аддитивности и инвариантности однозначно определяют линейно-логарифмическую зависимость для формулы расчета меры информации.

Таким образом, для фиксированного значения меры информации I самое длинное по количеству символов сообщение имеет место для двоичного алфавита п[2]=I. Если, например, использовать применяемый в вычислительной технике шестнадцатиричный алфавит, то длина сообщения окажется в четыре раза меньше: n[16]=I/4. В английском алфавите от "А" до "Z" имеем 26 букв, в русском алфавите от "А" до "Я" - 33 буквы. В настоящее время японский слоговый алфавит содержит 46 знаков и в печатной продукции используется около 3 тысяч иероглифов. Получается, что чем длиннее алфавит, тем сообщение оказывается короче. В частности, перевод текста с японского языка на русский по количеству символов (иероглифов в первом случае и букв во втором) займет больше места на странице. Возникает иллюзия того, что использование длинного алфавита позволяет передавать сообщения в более компактном виде и за более короткое время. Однако это только иллюзия.

Кардинальным требованием к символам любого алфавита является их графическая различимость между собой. Увеличение количества символов в алфавите неизбежно приводит к графическому усложнению самих символов согласно требованию к их различимости. Действительно, некий абстрактный алфавит, например из 16 символов, можно графически представить в виде матрицы с клетками 2 на 2 (всего 4 клетки или 4 бит информации на символ). Если каждая клетка может быть "пустой" или "заполненной", то имеем 2 4 =16 возможных вариантов графически различимых изображений: один полностью "пустой" символ, четыре символа с одной "заполненной" клеткой, шесть символов с двумя "заполненными" клетками, четыре символа с тремя "заполненными" клетками и один полностью "заполненный" символ. Аналогично, для матрицы 4 на 4 (всего 16 клеток - 16 бит информации на символ) имеем 2 16 =65 536 возможных вариантов графических изображений. Многие современные компьютеры имеют 32-разрядную архитектуру (32 бит), поэтому каждое 32-разрядное "слово" таких компьютеров способно кодировать 2 32 =4 294 967 296 различных символов.

Таким образом, свойство инвариантности демонстрирует универсальность меры информации I для различных алфавитов: увеличение количества символов алфавита N хотя и уменьшает длину эквивалентного

стр. 116


сообщения n, но с неизбежностью приводит к усложнению самих символов алфавита таким образом, что величина информации I в итоге остается неизменной.

Принципиальным моментом в определении меры информации I является то, что в нем полностью отсутствует семантическая составляющая сообщения. Поэтому мера информации I аналогична, например, мере объема для жидкостей или газов (м 3 , литры и т.д.), которая не отражает физико-химических характеристик самого состава жидкости или газа. В этом смысле сама по себе мера (физическая величина) и измеряемый данной мерой объект принципиально независимы.

От слов к числам

Нетрудно установить однозначное соответствие между словами языка и натуральными числами. Например, для русского языка, если сопоставить буквы алфавита числам "А" - О, "Б" - 1... "Я" - 32, то любое слово, с учетом местоположения букв в слове, будет иметь свое ассоциированное число. Так, слово "СЛОВО" может быть записано в виде десятичного числа:

18*33 4 +12*33 3 +15*ЗЗ 1 +2*33 1+15*33 0=21 794 238,

поскольку у буквы "С" - 18-я позиция, "Л" - 12-я, "О" - 15-я, "В" - 2-я. При таком подходе любое слово языка формально можно считать числом в системе счисления по основанию N, т.е по количеству символов алфавита.

Отметим, что при указанном определении чисел слова с одинаковым количеством букв определяют числа, упорядочивание которых по возрастающей выстраивает соответствующие слова в привычном для словарей алфавитном порядке.

Очевидна и обратная операция: определение по заданному десятичному числу ассоциированного с ним слова путем преобразования десятичного числа к числу с основанием N. Так, для числа 475 имеем: 475/33=13 + остаток 28, т.е. 475=13*33 1 +28*33 0 , что соответствует слову "МЫ" (13-я позиция - "М", 28-я - "Ы"). Очевидно, что не всякое число может быть преобразовано в слово, имеющему смысл, т.е. входящему в лексикон языка.

Если в лексиконе имеется порядка 100 тыс. слов, то они могут быть пронумерованы, например, согласно их порядку в орфографическом словаре. Для этого требуется I=log2 10 5 =5/Ig2= 16,61 ~ 17 бит. Имея алфавит из 33 букв, 100 тыс. слов при максимальном использовании сочетаний букв алфавита могут быть записаны "словами", состоящими из log 33 10 5 =5/lg33=3,3 или... всего из 4 букв!

Однако длина слов естественного языка всегда значительно больше, чем это следует из столь радикальных рационалистических положений, поскольку любой язык общения обусловлен своей историей развития и

стр. 117


фонетическими особенностями языковой системы, которые в совокупности приводят к фонетической и символьной избыточности языка. (В меньшей степени фонетическая избыточность присуща, например, японскому языку, где любое изменение звука в слове как правило приводит к другому слову с иным смыслом, и в большей степени присуща русскому языку, где имеем повсеместное искажение безударных гласных и согласных в ряде сочетаний.)

Слова и смысл

Связь между словом и его смыслом дается нам как факт. При этом причина присвоения тому или иному слову (некоторому сочетанию букв или фонем) того или иного смысла как правило не имеет естественного объяснения. Исключения могут составлять лишь звукоподражательные слова типа "звон", "гром", "плеск", "свист", "хлопок", "шлепок", "булькать", "чихать", "гаркнуть", "плюхнуть", "сплюнуть", "шаркнуть" и пр., в основе которых лежит имитация звуковых эффектов, возникающих в связи с тем или иным явлением или действием. Смысловой спектр таких слов, очевидно, весьма ограничен. Если предполагать существование общего протоязыка (как модели примитивного языка), то наличие в нем звукоподражательных слов наряду с междометиями кажется естественным. Однако значительная часть понятий не связана со звуками.

Слова являются обозначениями объектов, свойств, состояний и процессов. Они выполняют роль своеобразных маркеров на "картине" мира. Уместна аналогия с географическими названиями мест: сами по себе названия не несут прямого указания на конкретное место на земном шаре до тех пор, пока оно не будет указано на карте или отмечено вывеской. Таким образом, сами по себе слова являются некоторыми материализованными в звуках или письменности условными обозначениями и приобретают смысл лишь после того, как устанавливается соответствие между словом L и смыслом S. В достаточно общем случае существуют три варианта таких соответствий:

1) однозначное соответствие слова и смысла (L : S),

2) слово имеет несколько смыслов (L : S 1 S2...) - омонимы,

3) несколько слов имеют один смысл (L 1 , L2... : S) - синонимы.

Полный набор слов языка L={L/, L2... }- выраженных в письменном или фонетическом виде, образует лексикон языка, а полный набор "смыслов" S={S 1 , S 2 ;....} представляет собой семантическую модель мира. Тезаурусом является полный набор указанных вариантов соответствий типа T={(L 1 : ,S 1 ;), (L2: .S 2 . S3. S 4 ). (L3. L4: S5)...}. чем достигается "понимание" слов, а с учетом грамматических правил, и предложений языка.

Для человека, изучающего иностранный язык, приведенные соображения выглядят вполне очевидными, однако для знающего только родной язык, связь слова со смыслом может казаться неразрывной. Но эта неразрывность

стр. 118


является психическим фантомом. Существующее многообразие языков, в которых одни и те же объекты имеют разные названия, и возможность изучения и понимания этих языков говорят о том, что смысл является более универсальным и "глубинным" явлением, чем слова конкретного языка, которые выполняют вспомогательную коммуникационную роль, как проекция некоторого смысла на окружающий мир.

Иллюстрацией данного утверждения может послужить понятие "число". Есть имена числительные, лексически выражающие значение количества, которые различны для разных языков. Есть графические обозначения чисел с помощью арабских цифр, которые стали де-факто мировым стандартом обозначения значения количества в виде позиционной десятичной системы счисления. И есть идея значения количества, которая не зависит от фонетического и графического обозначения чисел и системы счисления. В противном случае арифметика не была бы точной наукой.

Другими словами, смысл "находится" в голове как элемент структуры головного мозга, тогда как слова предназначены для сенсорных органов: глаз, ушей и языка. Более полный ответ на вопрос о том, что представляет собой смысл вне слова, выходит за рамки данной публикации.

О ценности информации

В быту часто говорят о том, что информация полезна или бесполезна. На первый взгляд, понятие "ценность информации" кажется сугубо субъективным, поскольку обычному человеку "полезно" то, что непосредственно затрагивает его собственные интересы. К примеру, сообщение о рождении или смерти в семье незнакомых людей воспринимается далеко не так эмоционально, как в собственной семье или семье родственников. Однако есть вполне объективная характеристика ценности информации, основанная на априорной вероятности ожидания того, что некое событие произойдет. Из подобного рода соображений следует, что ценность информации о том, что произошло редкое событие, выше ценности информации о том, что произошло ординарное событие. Если вероятности Р альтернативных событий - суть величины P 1 , P2 ... P N - то "ценность" Q информации о том, что какое-либо из событий произошло в простейшем случае можно определить через обратную зависимость: Q 1 = (1/P 1 ) -1,Q2 = (I/P 2 - 1... QN = (!/Pn) - 1.

Возможно, что определение ценности информации на основе априорных вероятностей имеет больше концептуальную, чем практическую значимость из- за сложности получения объективных оценок вероятностей. Для ряда случаев эти вероятности принципиально не могут быть получены. Однако вероятности Р 1 , Р2...P N входят в важнейшее выражение (К. Шеннон, 1949 г.) для меры энтропии H информации, характеризующей степень неопределенности информационного сообщения:

стр. 119


H = - P 1 log 2 P 1 - P2log2P2...- P N log2PN бит.

Энтропия И всегда положительна и максимальна при равновероятных исходах (Hmax=log2N бит- Л. Хартли, 1928 г.). Любая априорная информация об "сходах приводит к отклонению от их равновероятностного распределения, что уменьшает величину энтропии (Нтаx>Н >0).

Если P 1 , Р2 ... PN- априорные вероятности появления в сообщении букв алфавита, то I= п Нтах только в том случае, когда используемые знаки алфавита, во-первых, априорно равновероятны и, во-вторых, не коррелированны. Очевидно, что в естественных языках эти условия не выполняются из-за избыточности, поэтому для максимально эффективного использования канала передачи данных с избыточностью применяют различные способы оптимального кодирования. Например, наиболее часто используемые последовательности исходных символов заменяются более короткими кодовыми последовательностями, и наоборот, а на приемном конце устанавливается соответствующее декодирующее устройство.

О чем идет речь? I

В известном рассказе А. Конан Дойла знаменитый сыщик расшифровал тайные знаки в виде пляшущих человечков, воспользовавшись известной частотной появления букв английского алфавита в словах. Но если бы преступник позаботился о том, чтобы кодированное сообщение имело энтропию, близкую к максимальной, то не зная алгоритма кодирования расшифровать сообщение оказалось бы практически невозможно.

Как указывалось выше, в 17 бит можно закодировать лексикон из 2 1 7=131 072 слов. Если таким образом закодировать основы слов, а для флексий и служебных слов отвести еще дополнительно 8 бит, то с помощью 17+8=25-ти битовых последовательностей можно закодировать слова с их грамматическими окончаниями. В итоге любое предложение, например на русском языке, может быть однозначным образом закодировано в семантически эквивалентное сообщение, но с более высокой энтропией. Таким образом возможно создание искусственного семантического языка, адекватно передающего смысл через семантические идентификаторы и грамматические служебные слова. При этом информация так и остается последовательностью символов, но мера информации сообщения оказывается прямо пропорциональной количеству элементов сообщения. Отметим, что сказанное во многом справедливо для любого искусственного языка (например, языков программирования).

Идея создания семантического языка кажется привлекательной и потому, что сообщение на приемной стороне может быть перекодировано в язык, отличающийся от языка передающей стороны, путем согласования тезаурусов передающей и приемной сторон. (Разумеется, семантический

стр. 120


язык не решает проблем переводов фразеологизмов или художественных переводов.)

Таким образом, при фиксированной длине п сообщение на семантическом языке в среднем позволит передать большее количество эквивалентной смысловой информации, чем при использовании естественного языка. В идеальном случае, если семантический язык будет генерировать сообщения с максимальной энтропией, то такого рода сообщения в статистическом плане не станут отличаться от сообщений, генерируемых каким-либо физическим шумовым устройством, т.е. не несущего позитивной смысловой составляющей. Парадоксально и то, что декодированное шумовое сообщение представимо в виде некоторого осознанного сообщения, аналогично семантической посылке. И тогда можно ли будет определить, размышления ли это разумного существа или это шум волны прибоя?

А может быть, стоит обратиться к фантастам или экстрасенсам и вместо дорогостоящих, порой, опасных лабораторных экспериментов и трудоемких теоретических исследований направить свой взор в Космос. И может быть, вся мудрость Вселенной раскроется перед нами после внимательного прослушивания шороха реликтового излучения?

* * *

Приходится признать, что слово "информация" способно ввести в заблуждение, если no-незнанию, а чаще в спекулятивных целях, бытовой смысл слова выдается за математический. Либо информация это новые знания, своеобразный кислород для ума, либо это количественная мера, вроде вместимости кислородного баллона. И хотя с помощью концепции искусственного семантического языка была показана тесная количественная связь между мерой информации и количеством семантических элементов информационного сообщения, но "есть слова без смысла, и есть смысл без слов". И мы не перестаем восхищаться столь мудрым устройством Природы, в котором разнородные понятия переплетаются и образуют ту уникальную возможность, которая позволяет роду людскому называть себя разумными существами. *


1. Теория информации и ее приложения. Сборник переводов. М, 1956.

2. БриллюзиЛ. Наука и теория информации. М., 1960.

3. ЛернерА.Я. Начала кибернетики. М., 1967.

4. Гидмор Ч. Введение в микропроцессорную технику. М., 1984.

5. Реформатский АЛ. Введение в языкознание. М., 1997.


*Автор сознательно в тексте статьи не делал ссылок на литературные источники, поскольку имеется обширная литература по теории информации, лингвистике и затрагиваемым смежным вопросам. Ниже дается лишь литературный минимум по обсуждаемой теме.


© libmonster.ru

Постоянный адрес данной публикации:

https://libmonster.ru/m/articles/view/ФИЛОСОФИЯ-И-НАУКА-ИНФОРМАЦИЯ-МЕРА-И-СМЫСЛ

Похожие публикации: LРоссия LWorld Y G


Публикатор:

Larisa SenchenkoКонтакты и другие материалы (статьи, фото, файлы и пр.)

Официальная страница автора на Либмонстре: https://libmonster.ru/Senchenko

Искать материалы публикатора в системах: Либмонстр (весь мир)GoogleYandex

Постоянная ссылка для научных работ (для цитирования):

О.И. КАЗАКОВ, ФИЛОСОФИЯ И НАУКА. ИНФОРМАЦИЯ: МЕРА И СМЫСЛ // Москва: Либмонстр Россия (LIBMONSTER.RU). Дата обновления: 08.09.2015. URL: https://libmonster.ru/m/articles/view/ФИЛОСОФИЯ-И-НАУКА-ИНФОРМАЦИЯ-МЕРА-И-СМЫСЛ (дата обращения: 20.04.2024).

Автор(ы) публикации - О.И. КАЗАКОВ:

О.И. КАЗАКОВ → другие работы, поиск: Либмонстр - РоссияЛибмонстр - мирGoogleYandex

Комментарии:



Рецензии авторов-профессионалов
Сортировка: 
Показывать по: 
 
  • Комментариев пока нет
Похожие темы
Публикатор
Larisa Senchenko
Arkhangelsk, Россия
1167 просмотров рейтинг
08.09.2015 (3147 дней(я) назад)
0 подписчиков
Рейтинг
0 голос(а,ов)
Похожие статьи
КИТАЙСКО-АФРИКАНСКИЕ ОТНОШЕНИЯ: УСКОРЕНИЕ РАЗВИТИЯ
Каталог: Экономика 
2 часов(а) назад · от Вадим Казаков
КИТАЙСКИЙ КАПИТАЛ НА РЫНКАХ АФРИКИ
Каталог: Экономика 
2 дней(я) назад · от Вадим Казаков
КИТАЙ. РЕШЕНИЕ СОЦИАЛЬНЫХ ПРОБЛЕМ В УСЛОВИЯХ РЕФОРМ И КРИЗИСА
Каталог: Социология 
2 дней(я) назад · от Вадим Казаков
КИТАЙ: РЕГУЛИРОВАНИЕ ЭМИГРАЦИОННОГО ПРОЦЕССА
Каталог: Экономика 
4 дней(я) назад · от Вадим Казаков
China. WOMEN'S EQUALITY AND THE ONE-CHILD POLICY
Каталог: Лайфстайл 
4 дней(я) назад · от Вадим Казаков
КИТАЙ. ПРОБЛЕМЫ УРЕГУЛИРОВАНИЯ ЭКОНОМИЧЕСКОЙ СТРУКТУРЫ
Каталог: Экономика 
4 дней(я) назад · от Вадим Казаков
КИТАЙ: ПРОБЛЕМА МИРНОГО ВОССОЕДИНЕНИЯ ТАЙВАНЯ
Каталог: Политология 
4 дней(я) назад · от Вадим Казаков
Стихи, пейзажная лирика, Карелия
Каталог: Разное 
6 дней(я) назад · от Денис Николайчиков
ВЬЕТНАМ И ЗАРУБЕЖНАЯ ДИАСПОРА
Каталог: Социология 
8 дней(я) назад · от Вадим Казаков
ВЬЕТНАМ, ОБЩАЯ ПАМЯТЬ
Каталог: Военное дело 
8 дней(я) назад · от Вадим Казаков

Новые публикации:

Популярные у читателей:

Новинки из других стран:

LIBMONSTER.RU - Цифровая библиотека России

Создайте свою авторскую коллекцию статей, книг, авторских работ, биографий, фотодокументов, файлов. Сохраните навсегда своё авторское Наследие в цифровом виде. Нажмите сюда, чтобы зарегистрироваться в качестве автора.
Партнёры библиотеки
ФИЛОСОФИЯ И НАУКА. ИНФОРМАЦИЯ: МЕРА И СМЫСЛ
 

Контакты редакции
Чат авторов: RU LIVE: Мы в соцсетях:

О проекте · Новости · Реклама

Либмонстр Россия ® Все права защищены.
2014-2024, LIBMONSTER.RU - составная часть международной библиотечной сети Либмонстр (открыть карту)
Сохраняя наследие России


LIBMONSTER NETWORK ОДИН МИР - ОДНА БИБЛИОТЕКА

Россия Беларусь Украина Казахстан Молдова Таджикистан Эстония Россия-2 Беларусь-2
США-Великобритания Швеция Сербия

Создавайте и храните на Либмонстре свою авторскую коллекцию: статьи, книги, исследования. Либмонстр распространит Ваши труды по всему миру (через сеть филиалов, библиотеки-партнеры, поисковики, соцсети). Вы сможете делиться ссылкой на свой профиль с коллегами, учениками, читателями и другими заинтересованными лицами, чтобы ознакомить их со своим авторским наследием. После регистрации в Вашем распоряжении - более 100 инструментов для создания собственной авторской коллекции. Это бесплатно: так было, так есть и так будет всегда.

Скачать приложение для Android