Libmonster is the largest world open library, repository of author's heritage and archive

Register & start to create your original collection of articles, books, research, biographies, photographs, files. It's convenient and free. Click here to register as an author. Share with the world your works!

Libmonster ID: RU-8449
Author(s) of the publication: О.И. КАЗАКОВ

Share with friends in SM

Понятие "информация" емко и многопланово. На математическом уровне под информацией понимается последовательность символов, с которой связывается количественная характеристика- мера (объем) информации. На техническом уровне делается акцент на характеристиках сигналов - носителях информации - и физических свойствах каналов передачи сигналов. На бытовом уровне информация - это новости, вести или сообщения, причем на передний план выступает семантическая составляющая сообщения. Есть также некая эзотерическая компонента понятия "информация", которая сопоставима с понятием "знание" в самом широком смысле этого слова.

В статье в схематическом виде рассматривается связь между информацией как мерой сообщения и информацией как сообщением, имеющим семантическую составляющую. Отметим, что в точных науках информация является количеством, лишенным качества, поскольку смысл сообщения из анализа исключается.

Мера информации

Рассмотрим простейший алфавит, состоящий из двух символов (двоичный). Если последовательность состоит из п символов этого алфавита, то количество всевозможных комбинаций из п символов равно 2 n . Величина п имеет размерность "бит" (bit- сокращение от binary digital, "двоичное число") и характеризует меру информационного сообщения. Если алфавит состоит из ./V символов, то количество всевозможных комбинаций из п символов равно N n . Сопоставив это выражение с аналогичным для двоичного алфавита получим уравнение 2 I =N n , где /- эквивалентная длина последовательности символов двоичного алфавита, содержащего то же количество возможных комбинации, что и последовательность символов N-символьного алфавита. Решая данное уравнение относительно неизвестного I получаем выражение для меры информации:

I=n log2N, бит.

Ключевыми свойствами данного определения меры информации являются следующие. Во-первых, это свойство аддитивности. При объединении двух (и более) последовательностей из п 1 и п2 символов одного

стр. 115


и того же алфавита имеем I=(n I +n 2 )log2N=I 1 +l2, т.е. получаем аддитивное сложение меры информации. Во-вторых, это свойство инвариантности относительно количества комбинаций. Дня заданной величины I последовательность п символов из -символьного алфавита может быть эквивалентным образом записана в символах другого -символьного алфавита из k символов, причем требуемая длина последовательности k=I/log2K. Очевидно, что верным является и обратное: свойства аддитивности и инвариантности однозначно определяют линейно-логарифмическую зависимость для формулы расчета меры информации.

Таким образом, для фиксированного значения меры информации I самое длинное по количеству символов сообщение имеет место для двоичного алфавита п[2]=I. Если, например, использовать применяемый в вычислительной технике шестнадцатиричный алфавит, то длина сообщения окажется в четыре раза меньше: n[16]=I/4. В английском алфавите от "А" до "Z" имеем 26 букв, в русском алфавите от "А" до "Я" - 33 буквы. В настоящее время японский слоговый алфавит содержит 46 знаков и в печатной продукции используется около 3 тысяч иероглифов. Получается, что чем длиннее алфавит, тем сообщение оказывается короче. В частности, перевод текста с японского языка на русский по количеству символов (иероглифов в первом случае и букв во втором) займет больше места на странице. Возникает иллюзия того, что использование длинного алфавита позволяет передавать сообщения в более компактном виде и за более короткое время. Однако это только иллюзия.

Кардинальным требованием к символам любого алфавита является их графическая различимость между собой. Увеличение количества символов в алфавите неизбежно приводит к графическому усложнению самих символов согласно требованию к их различимости. Действительно, некий абстрактный алфавит, например из 16 символов, можно графически представить в виде матрицы с клетками 2 на 2 (всего 4 клетки или 4 бит информации на символ). Если каждая клетка может быть "пустой" или "заполненной", то имеем 2 4 =16 возможных вариантов графически различимых изображений: один полностью "пустой" символ, четыре символа с одной "заполненной" клеткой, шесть символов с двумя "заполненными" клетками, четыре символа с тремя "заполненными" клетками и один полностью "заполненный" символ. Аналогично, для матрицы 4 на 4 (всего 16 клеток - 16 бит информации на символ) имеем 2 16 =65 536 возможных вариантов графических изображений. Многие современные компьютеры имеют 32-разрядную архитектуру (32 бит), поэтому каждое 32-разрядное "слово" таких компьютеров способно кодировать 2 32 =4 294 967 296 различных символов.

Таким образом, свойство инвариантности демонстрирует универсальность меры информации I для различных алфавитов: увеличение количества символов алфавита N хотя и уменьшает длину эквивалентного

стр. 116


сообщения n, но с неизбежностью приводит к усложнению самих символов алфавита таким образом, что величина информации I в итоге остается неизменной.

Принципиальным моментом в определении меры информации I является то, что в нем полностью отсутствует семантическая составляющая сообщения. Поэтому мера информации I аналогична, например, мере объема для жидкостей или газов (м 3 , литры и т.д.), которая не отражает физико-химических характеристик самого состава жидкости или газа. В этом смысле сама по себе мера (физическая величина) и измеряемый данной мерой объект принципиально независимы.

От слов к числам

Нетрудно установить однозначное соответствие между словами языка и натуральными числами. Например, для русского языка, если сопоставить буквы алфавита числам "А" - О, "Б" - 1... "Я" - 32, то любое слово, с учетом местоположения букв в слове, будет иметь свое ассоциированное число. Так, слово "СЛОВО" может быть записано в виде десятичного числа:

18*33 4 +12*33 3 +15*ЗЗ 1 +2*33 1+15*33 0=21 794 238,

поскольку у буквы "С" - 18-я позиция, "Л" - 12-я, "О" - 15-я, "В" - 2-я. При таком подходе любое слово языка формально можно считать числом в системе счисления по основанию N, т.е по количеству символов алфавита.

Отметим, что при указанном определении чисел слова с одинаковым количеством букв определяют числа, упорядочивание которых по возрастающей выстраивает соответствующие слова в привычном для словарей алфавитном порядке.

Очевидна и обратная операция: определение по заданному десятичному числу ассоциированного с ним слова путем преобразования десятичного числа к числу с основанием N. Так, для числа 475 имеем: 475/33=13 + остаток 28, т.е. 475=13*33 1 +28*33 0 , что соответствует слову "МЫ" (13-я позиция - "М", 28-я - "Ы"). Очевидно, что не всякое число может быть преобразовано в слово, имеющему смысл, т.е. входящему в лексикон языка.

Если в лексиконе имеется порядка 100 тыс. слов, то они могут быть пронумерованы, например, согласно их порядку в орфографическом словаре. Для этого требуется I=log2 10 5 =5/Ig2= 16,61 ~ 17 бит. Имея алфавит из 33 букв, 100 тыс. слов при максимальном использовании сочетаний букв алфавита могут быть записаны "словами", состоящими из log 33 10 5 =5/lg33=3,3 или... всего из 4 букв!

Однако длина слов естественного языка всегда значительно больше, чем это следует из столь радикальных рационалистических положений, поскольку любой язык общения обусловлен своей историей развития и

стр. 117


фонетическими особенностями языковой системы, которые в совокупности приводят к фонетической и символьной избыточности языка. (В меньшей степени фонетическая избыточность присуща, например, японскому языку, где любое изменение звука в слове как правило приводит к другому слову с иным смыслом, и в большей степени присуща русскому языку, где имеем повсеместное искажение безударных гласных и согласных в ряде сочетаний.)

Слова и смысл

Связь между словом и его смыслом дается нам как факт. При этом причина присвоения тому или иному слову (некоторому сочетанию букв или фонем) того или иного смысла как правило не имеет естественного объяснения. Исключения могут составлять лишь звукоподражательные слова типа "звон", "гром", "плеск", "свист", "хлопок", "шлепок", "булькать", "чихать", "гаркнуть", "плюхнуть", "сплюнуть", "шаркнуть" и пр., в основе которых лежит имитация звуковых эффектов, возникающих в связи с тем или иным явлением или действием. Смысловой спектр таких слов, очевидно, весьма ограничен. Если предполагать существование общего протоязыка (как модели примитивного языка), то наличие в нем звукоподражательных слов наряду с междометиями кажется естественным. Однако значительная часть понятий не связана со звуками.

Слова являются обозначениями объектов, свойств, состояний и процессов. Они выполняют роль своеобразных маркеров на "картине" мира. Уместна аналогия с географическими названиями мест: сами по себе названия не несут прямого указания на конкретное место на земном шаре до тех пор, пока оно не будет указано на карте или отмечено вывеской. Таким образом, сами по себе слова являются некоторыми материализованными в звуках или письменности условными обозначениями и приобретают смысл лишь после того, как устанавливается соответствие между словом L и смыслом S. В достаточно общем случае существуют три варианта таких соответствий:

1) однозначное соответствие слова и смысла (L : S),

2) слово имеет несколько смыслов (L : S 1 S2...) - омонимы,

3) несколько слов имеют один смысл (L 1 , L2... : S) - синонимы.

Полный набор слов языка L={L/, L2... }- выраженных в письменном или фонетическом виде, образует лексикон языка, а полный набор "смыслов" S={S 1 , S 2 ;....} представляет собой семантическую модель мира. Тезаурусом является полный набор указанных вариантов соответствий типа T={(L 1 : ,S 1 ;), (L2: .S 2 . S3. S 4 ). (L3. L4: S5)...}. чем достигается "понимание" слов, а с учетом грамматических правил, и предложений языка.

Для человека, изучающего иностранный язык, приведенные соображения выглядят вполне очевидными, однако для знающего только родной язык, связь слова со смыслом может казаться неразрывной. Но эта неразрывность

стр. 118


является психическим фантомом. Существующее многообразие языков, в которых одни и те же объекты имеют разные названия, и возможность изучения и понимания этих языков говорят о том, что смысл является более универсальным и "глубинным" явлением, чем слова конкретного языка, которые выполняют вспомогательную коммуникационную роль, как проекция некоторого смысла на окружающий мир.

Иллюстрацией данного утверждения может послужить понятие "число". Есть имена числительные, лексически выражающие значение количества, которые различны для разных языков. Есть графические обозначения чисел с помощью арабских цифр, которые стали де-факто мировым стандартом обозначения значения количества в виде позиционной десятичной системы счисления. И есть идея значения количества, которая не зависит от фонетического и графического обозначения чисел и системы счисления. В противном случае арифметика не была бы точной наукой.

Другими словами, смысл "находится" в голове как элемент структуры головного мозга, тогда как слова предназначены для сенсорных органов: глаз, ушей и языка. Более полный ответ на вопрос о том, что представляет собой смысл вне слова, выходит за рамки данной публикации.

О ценности информации

В быту часто говорят о том, что информация полезна или бесполезна. На первый взгляд, понятие "ценность информации" кажется сугубо субъективным, поскольку обычному человеку "полезно" то, что непосредственно затрагивает его собственные интересы. К примеру, сообщение о рождении или смерти в семье незнакомых людей воспринимается далеко не так эмоционально, как в собственной семье или семье родственников. Однако есть вполне объективная характеристика ценности информации, основанная на априорной вероятности ожидания того, что некое событие произойдет. Из подобного рода соображений следует, что ценность информации о том, что произошло редкое событие, выше ценности информации о том, что произошло ординарное событие. Если вероятности Р альтернативных событий - суть величины P 1 , P2 ... P N - то "ценность" Q информации о том, что какое-либо из событий произошло в простейшем случае можно определить через обратную зависимость: Q 1 = (1/P 1 ) -1,Q2 = (I/P 2 - 1... QN = (!/Pn) - 1.

Возможно, что определение ценности информации на основе априорных вероятностей имеет больше концептуальную, чем практическую значимость из- за сложности получения объективных оценок вероятностей. Для ряда случаев эти вероятности принципиально не могут быть получены. Однако вероятности Р 1 , Р2...P N входят в важнейшее выражение (К. Шеннон, 1949 г.) для меры энтропии H информации, характеризующей степень неопределенности информационного сообщения:

стр. 119


H = - P 1 log 2 P 1 - P2log2P2...- P N log2PN бит.

Энтропия И всегда положительна и максимальна при равновероятных исходах (Hmax=log2N бит- Л. Хартли, 1928 г.). Любая априорная информация об "сходах приводит к отклонению от их равновероятностного распределения, что уменьшает величину энтропии (Нтаx>Н >0).

Если P 1 , Р2 ... PN- априорные вероятности появления в сообщении букв алфавита, то I= п Нтах только в том случае, когда используемые знаки алфавита, во-первых, априорно равновероятны и, во-вторых, не коррелированны. Очевидно, что в естественных языках эти условия не выполняются из-за избыточности, поэтому для максимально эффективного использования канала передачи данных с избыточностью применяют различные способы оптимального кодирования. Например, наиболее часто используемые последовательности исходных символов заменяются более короткими кодовыми последовательностями, и наоборот, а на приемном конце устанавливается соответствующее декодирующее устройство.

О чем идет речь? I

В известном рассказе А. Конан Дойла знаменитый сыщик расшифровал тайные знаки в виде пляшущих человечков, воспользовавшись известной частотной появления букв английского алфавита в словах. Но если бы преступник позаботился о том, чтобы кодированное сообщение имело энтропию, близкую к максимальной, то не зная алгоритма кодирования расшифровать сообщение оказалось бы практически невозможно.

Как указывалось выше, в 17 бит можно закодировать лексикон из 2 1 7=131 072 слов. Если таким образом закодировать основы слов, а для флексий и служебных слов отвести еще дополнительно 8 бит, то с помощью 17+8=25-ти битовых последовательностей можно закодировать слова с их грамматическими окончаниями. В итоге любое предложение, например на русском языке, может быть однозначным образом закодировано в семантически эквивалентное сообщение, но с более высокой энтропией. Таким образом возможно создание искусственного семантического языка, адекватно передающего смысл через семантические идентификаторы и грамматические служебные слова. При этом информация так и остается последовательностью символов, но мера информации сообщения оказывается прямо пропорциональной количеству элементов сообщения. Отметим, что сказанное во многом справедливо для любого искусственного языка (например, языков программирования).

Идея создания семантического языка кажется привлекательной и потому, что сообщение на приемной стороне может быть перекодировано в язык, отличающийся от языка передающей стороны, путем согласования тезаурусов передающей и приемной сторон. (Разумеется, семантический

стр. 120


язык не решает проблем переводов фразеологизмов или художественных переводов.)

Таким образом, при фиксированной длине п сообщение на семантическом языке в среднем позволит передать большее количество эквивалентной смысловой информации, чем при использовании естественного языка. В идеальном случае, если семантический язык будет генерировать сообщения с максимальной энтропией, то такого рода сообщения в статистическом плане не станут отличаться от сообщений, генерируемых каким-либо физическим шумовым устройством, т.е. не несущего позитивной смысловой составляющей. Парадоксально и то, что декодированное шумовое сообщение представимо в виде некоторого осознанного сообщения, аналогично семантической посылке. И тогда можно ли будет определить, размышления ли это разумного существа или это шум волны прибоя?

А может быть, стоит обратиться к фантастам или экстрасенсам и вместо дорогостоящих, порой, опасных лабораторных экспериментов и трудоемких теоретических исследований направить свой взор в Космос. И может быть, вся мудрость Вселенной раскроется перед нами после внимательного прослушивания шороха реликтового излучения?

* * *

Приходится признать, что слово "информация" способно ввести в заблуждение, если no-незнанию, а чаще в спекулятивных целях, бытовой смысл слова выдается за математический. Либо информация это новые знания, своеобразный кислород для ума, либо это количественная мера, вроде вместимости кислородного баллона. И хотя с помощью концепции искусственного семантического языка была показана тесная количественная связь между мерой информации и количеством семантических элементов информационного сообщения, но "есть слова без смысла, и есть смысл без слов". И мы не перестаем восхищаться столь мудрым устройством Природы, в котором разнородные понятия переплетаются и образуют ту уникальную возможность, которая позволяет роду людскому называть себя разумными существами. *


1. Теория информации и ее приложения. Сборник переводов. М, 1956.

2. БриллюзиЛ. Наука и теория информации. М., 1960.

3. ЛернерА.Я. Начала кибернетики. М., 1967.

4. Гидмор Ч. Введение в микропроцессорную технику. М., 1984.

5. Реформатский АЛ. Введение в языкознание. М., 1997.


*Автор сознательно в тексте статьи не делал ссылок на литературные источники, поскольку имеется обширная литература по теории информации, лингвистике и затрагиваемым смежным вопросам. Ниже дается лишь литературный минимум по обсуждаемой теме.

Orphus

© libmonster.ru

Permanent link to this publication:

https://libmonster.ru/m/articles/view/ФИЛОСОФИЯ-И-НАУКА-ИНФОРМАЦИЯ-МЕРА-И-СМЫСЛ

Similar publications: LRussia LWorld Y G


Publisher:

Larisa SenchenkoContacts and other materials (articles, photo, files etc)

Author's official page at Libmonster: https://libmonster.ru/Senchenko

Find other author's materials at: Libmonster (all the World)GoogleYandex

Permanent link for scientific papers (for citations):

О.И. КАЗАКОВ, ФИЛОСОФИЯ И НАУКА. ИНФОРМАЦИЯ: МЕРА И СМЫСЛ // Moscow: Russian Libmonster (LIBMONSTER.RU). Updated: 08.09.2015. URL: https://libmonster.ru/m/articles/view/ФИЛОСОФИЯ-И-НАУКА-ИНФОРМАЦИЯ-МЕРА-И-СМЫСЛ (date of access: 30.09.2020).

Publication author(s) - О.И. КАЗАКОВ:

О.И. КАЗАКОВ → other publications, search: Libmonster RussiaLibmonster WorldGoogleYandex

Comments:



Reviews of professional authors
Order by: 
Per page: 
 
  • There are no comments yet
Related topics
Publisher
Larisa Senchenko
Arkhangelsk, Russia
1022 views rating
08.09.2015 (1848 days ago)
0 subscribers
Rating
0 votes

Related Articles
Новый социализм нужно строить, опираясь на новую теорию социализма. Новая теория социализма отказывается от диктатуры пролетариата, ибо практика развития старого социализма показала, что диктатура пролетариата не может быть не чем иным, как только диктатурой кучки коммунистических чиновников, или, как очень остроумно назвала её Роза Люксембург «диктатурой НАД пролетариатом». А появление у руля этой диктатуры таких предателей как Ельцин, неизбежно ведёт социализм к краху. Новый социализм, построенный на старой теории, ждёт такая же участь.
Малоизвестные страницы истории Великой Отечественной войны. Сейчас, когда открылись как отечественные, так и зарубежные архивы, стало возможным воссоздать картину одного из драматических эпизодов самого начального периода войны..... Западный фронт, бои в июне-июле 1941 года на втором стратегическом рубеже..... 22-ая армия под командованием генерал-полковника Ф.А. Ершакова..... Бои армии в Белоруссии на берегах реки Западная Двина на участке Дрисса - Дисна - Полоцк..... Начало широкого наступления немцев на восток было положено с маленького плацдарма в районе города Дисна
Catalog: История 
В статье рассматривается отражение образа Соловья-разбойника в романе М. А. Булгакова "Мастер и Маргарита" в связи с эпизодом свиста Бегемота и Коровьева при прощании героев с Москвой, а также связь образа Бегемота с образом Соловья-разбойника и героя древнеиндийского эпоса - Панду, а шире - связь русской литературы через "Закатный роман" Булгакова и поэму "Руслан и Людмила" А. С. Пушкина с древнеиндийскими произведениями: "Махабхаратой" и "Рамаяной".
Солнечная система является фрагментом распада нейтронного ядра нашей Галактики Млечный путь. Выброс нейтронного фрагмента Солнца из нейтронного ядра нашей Галактики произошёл приблизительно 10млр. лет назад. Всё это время нейтронный фрагмент перемещается по одному из спиральных рукавов нашей Галактики. Расширение происходит примерно по гиперболической траектории, которая вращается вокруг центра. Полный оборот вокруг центра нейтронного ядра Галактики, Солнце совершает примерно за 230млн.лет. Удаление от центра Галактики до Солнечной системы \simeq27700св. ле
Catalog: Физика 
17 days ago · From Владимир Груздов
Раскрытие тайны диалектики идеального и материального в реальном мире и в сознании человека
Catalog: Философия 
28 days ago · From Аркадий Гуртовцев
Энергия частицы является ключевым объяснением расширения Вселенной. В процессе расширения Вселенной участвуют пять частиц. Четыре массовые - нейтрон, протон, электрон и позитрон. Пятая частица условно без массовая - фотон. Позитрон и фотон не являются строительными кирпичиками материи Вселенной. Эти частицы выполняют вспомогательные функции в процессах преобразования материи и расширения Вселенной. Окружающий материальный мир организован из нейтронов, протонов и электронов. Сочетания, комбинации и перестановки этих трёх частиц, образуют окружающий нас мир
Catalog: Физика 
31 days ago · From Владимир Груздов
При любом взаимодействии масс, на любом уровне, создаются потенциалы взаимодействия в любых процессах расширения Вселенной. Этим определением рассмотрим вопросы, связанные с массой и энергией взаимодействующих объектов. Когда объекты (частицы, молекулы) потенциально взаимодействуют, они создают градиенты потенциального взаимодействия. Эти градиенты регулируют энергию и массу объектов и Вселенной в целом.
Catalog: Физика 
47 days ago · From Владимир Груздов
Жан Ланн
Catalog: История 
51 days ago · From Россия Онлайн
Кризис муниципальных финансов в России в 1917 г.
Catalog: Экономика 
51 days ago · From Россия Онлайн
Благотворительная деятельность предпринимателей Парамоновых на Дону. 1914-1915 гг.
Catalog: История 
51 days ago · From Россия Онлайн

Libmonster, International Network:

Actual publications:

LATEST FILES FRESH UPLOADS!
 
Наталья Свиридова·jpg·25.22 Kb·139 days ago

Actual publications:

Загрузка...

Latest ARTICLES:

Latest BOOKS:

Actual publications:

Libmonster is the largest world open library, repository of author's heritage and archive

Register & start to create your original collection of articles, books, research, biographies, photographs, files. It's convenient and free. Click here to register as an author. Share with the world your works!
ФИЛОСОФИЯ И НАУКА. ИНФОРМАЦИЯ: МЕРА И СМЫСЛ
 

Contacts
Watch out for new publications:

About · News · For Advertisers · Donate to Libmonster

Russian Libmonster ® All rights reserved.
2014-2020, LIBMONSTER.RU is a part of Libmonster, international library network (open map)
Keeping the heritage of Russia


LIBMONSTER NETWORK ONE WORLD - ONE LIBRARY

US-Great Britain Sweden Portugal Serbia
Russia Belarus Ukraine Kazakhstan Moldova Tajikistan Estonia Russia-2 Belarus-2

Create and store your author's collection at Libmonster: articles, books, studies. Libmonster will spread your heritage all over the world (through a network of branches, partner libraries, search engines, social networks). You will be able to share a link to your profile with colleagues, students, readers and other interested parties, in order to acquaint them with your copyright heritage. After registration at your disposal - more than 100 tools for creating your own author's collection. It is free: it was, it is and always will be.

Download app for smartphones