Объявление

#90 Теории информации

 

 


Ключевым для сферы информационных технологий является понятие информации. И потому блог "В мире ИТ" не может себе позволить не иметь публикацию, или даже серию таковых, рассказывающую об одновременно простом и сложном, понятном, загадочном и отчасти невыразимом явлении, как информация. Сущность любого объекта реальности рассматривает философия, современные представители которой парадоксально считают её мертвой или умирающей наукой. Краткий экскурс в эволюцию философских представлений об информации позволит выработать собственную точку зрения на данный феномен в контексте современной науки и общественной жизни. 


Информация


Философия информации занимается анализом понятия информации как с исторической, так и с систематической точки зрения. С появлением эмпирической теории познания в ранней философии Нового времени, развитием различных математических теорий информации в двадцатом веке и информационных технологий концепция «информации» заняла центральное место в науке и обществе. Интерес к проблеме привел к появлению отдельной ветви философии, которая анализирует информацию во всех ее проявлениях. Информация стала центральной категорией как в естественных, так и в гуманитарных науках. Размышления над информацией влияют на широкий круг философских дисциплин: от логики, эпистемологии, этики, эстетики до онтологии.


Информация


Нет единого мнения о точной природе философии информации. Ряд авторов предложили более или менее последовательную концепцию философии информации в поисках новой точки сборки философии. К примеру, в теориях квантовой физики, логики, семантической информации, коммуникационных систем и систем сообщений и в метафилософии информацию рассматривают скорее как техническую дисциплину, уходящую корнями в историю философии и влияющую на различные дисциплины, такие как методология, эпистемология и этика. Какой бы ни была интерпретация природы философии информации, ее изучение подразумевает амбициозную исследовательскую программу, состоящую из множества ответвлений, варьирующихся от переосмысления истории философии в контексте современных теорий информации до глубокого анализа роли информации в науке, гуманитарных науках и обществе в целом.

Информация


Термин «информация» в бытовом обиходе в настоящее время преимущественно используется для обозначения любого количества данных, кода или текста, которые хранятся, отправляются, принимаются или обрабатываются на любом носителе.

Подробная история как термина «информация», так и различных понятий, которые с ним связаны, сложна и по большей части еще не систематизирована. Значение термина «информация» варьируется в разных философских традициях, а его бытовой смысл разнится в зависимости от географического и прагматического контекста. 

Понятие информации стало предметом анализа в западной философии с самых ее истоков. Но как философская концепция теория информация возникла недавно, и восходит ко второй половине ХХ века. В настоящее время информация является ключевым понятием в естественных, гуманитарных науках и в повседневной жизни. Все, что мы знаем о мире, основано на информации, которую мы получили или собрали, и каждая наука по большому счету имеет дело с информацией. 

Существует сеть взаимосвязанных концепций информации, уходящих корнями в различные дисциплины, такие как физика, математика, логика, биология, экономика и эпистемология. 

Джозайя Уиллард Гиббс

Все эти понятия группируются вокруг двух основных свойств: 

Информация экстенсивна. Центральной здесь является концепция аддитивности: комбинация двух независимых наборов данных с одинаковым объемом информации содержит удвоенный набор информации, в сравнении с индивидуальным комплектом данных. Понятие экстенсивности естественным образом возникает во взаимодействии с окружающим миром, когда есть необходимость считать и измерять объекты и структуры. Базовые концепции более абстрактных математических объектов, таких как множества, мультимножества и последовательности были разработаны на раннем этапе истории на основе структурных правил манипулирования символами. Математическая формализация экстенсивности в терминах логарифмической функции имела место в контексте исследований термодинамики в девятнадцатом (Людвиг Больцман, 1866) и начале двадцатого века (Джозайя Уиллард Гиббс, 1906). При кодировании в терминах систем многомерных чисел (комплексные числа, кватернионы, октонионы) концепция экстенсивности обобщается на уровне более тонкого понятия аддитивности, которое не входит в сферу повседневности. Но играет важную роль в исследованиях теории информации, основанной на концепции квантовой физики.


Людвиг Больцман

Информация снижает неопределенность. Количество получаемой информации растет линейно по отношению к тому, насколько она уменьшает неопределенность. До того момента, пока не получена вся возможная информация и степень неопределенности не стала нулевой. Связь между неопределенностью и информацией, впервые сформулирована эмпириками (Джон Локк 1689; Дэвид Юм, 1748). Юм заметил, что выбор из более широкого спектра возможностей дает больше информации. Это наблюдение отразилось в канонической математической формулировке функции, предложенной Ральфом Хартли (1928), определяющей количество информации, которую получают, когда выбирают элемент из конечного множества. Единственная математическая функция, которая объединяет эти два допущения об экстенсивности и вероятности, - это функция, которая определяет информацию в терминах отрицательного логарифма вероятности:  

I(A)=−logP(A)  

(Клод Шеннон, 1948; К. Шеннон и Уоррен Уивер, 1949, Альфред Реньи, 1961).


Клод Элвуд Шеннон


Однако элегантность этой формулы не ограждает её от концептуальных проблем

В двадцатом веке мнения ученых о формализации понятий информации распределились в рамках нескольких концепций:

Качественные теории информации

Семантическая информация: Йегошуа Бар-Гиллель и Рудольф Карнап разработали теорию семантической информации (1953). Лучано Флориди  определяет семантическую информацию как правильно сформированные, значимые и правдивые данные. Формальные энтропийные определения информации (Рональд Фишер, Клод Шеннон, Андрей Николаевич Колмогоров) работают на более общем уровне и не обязательно измеряют информацию в значимых истинных массивах данных. Семантическая информация близка к повседневному наивному представлению об информации как о чем-то, что передается с помощью истинных утверждений о мире.

Информация как состояние агента: формальная логическая трактовка таких понятий, как знание и вера, была инициирована Яакко Хинтиккой, Фредом Дрецке, Йоханом ван Бентемом и Франсом ван Ройем, которые изучали эти понятия в контексте теории информации. Уильям Данн, предположительно, также имел нечто подобное, когда определял информацию как «то, что остается от знания, когда убирают веру, оправдание и истину». Брун Виго (2011) предложил структурно-чувствительную теорию информации, основанную на сложности усвоения концепций агентами.


Количественные теории информации

Функция Найквиста: Гарри Найквист (1924) был, вероятно, первым, кто выразил количество «интеллекта», которое может быть передано при определенной линейной скорости телеграфных систем, в логарифмической функции: 

W=Klogm

где 

W - скорость передачи, 

K - постоянная величина, а 

m - различные уровни напряжения.

Информация Фишера: количество информации, которую несет наблюдаемая случайная величина X о неизвестном параметре θ, от которого зависит вероятность X (Рональд Фишер, 1925).

Функция Хартли: (Ральф Хартли, 1928, Альфред Реньи, 1961, Брун Виго, 2012). Количество информации, которое мы получаем, когда мы выбираем элемент из конечного множества S при равномерном распределении, является логарифмом мощности этого множества.

Информация Шеннона: энтропия H дискретной случайной величины X является мерой неопределенности, связанной со значением X (Клод Шеннон, 1948; Уоррен Уивер, 1949).

Колмогоровская сложность: информация в двоичной строке x - это длина кратчайшей программы p, которая производит x на эталонной универсальной машине Тьюринга U (Алан Тьюринг 1937; Юрий Семенович Соломонов, 1997; Андрей Николаевич Колмогоров, 1965; Грегори Хайтин, 1987).

Меры энтропии в физике: хотя они не во всех случаях являются строго мерами информации, различные понятия энтропии, используемые в физике, тесно связаны с соответствующими концепциями информации. Можно упомянуть энтропию Людвига Больцмана, тесно связанную с функцией Ральфа Хартли (1928), энтропией Джозайи Уилларда Гиббса (1906), формально эквивалентной энтропией Клода Шеннона, и различные обобщения, такие как энтропия Константина Цаллиса (1988) и энтропия Альфреда Реньи (1961).

Квантовая информация: кубит является обобщением классического бита и описывается квантовым состоянием в двухуровневой квантово-механической системе, формально эквивалентной двумерному векторному пространству над комплексными числами (Джон фон Нейман 1932; Ласло Редей,  Михаэль Штёльтцнер, 2001).


Джон фон Нейман


До недавнего времени возможность объединения этих теорий вызывала сомнение, но после десятилетий исследований наметилась перспектива единой концепции информации в рамках следующих направлений:

Философия информации - это раздел философии, неразрывно связанный с философией логики и математики. Философия семантической информации является субдисциплиной философии информации. С этой точки зрения философия информации заинтересована в исследовании предмета на самом общем уровне: данные, правильно сформированные данные, данные окружающей среды и т. д. Философия семантической информации добавляет измерения значения и истинности. Количественные теории информации можно интерпретировать в рамках раздела философии семантической информации.

Различные количественные концепции информации связаны с разными повествованиями (подсчет, получение сообщений, сбор информации, вычисления), основанными на одной и той же базовой математической структуре. Многие проблемы философии информации связаны с проблемами философии математики. В настоящее время изучены преобразования и редукции между различными формальными моделями. Возникающая ситуация мало чем отличается от концепции энергии: существуют различные формальные субтеории энергии (кинетическая, потенциальная, электрическая, химическая, ядерная) с четко определенными преобразованиями между ними. Но в повседневной речи термин «энергия» употребляется в достаточно широком контексте.


Алан Тьюринг


Концепции информации, основанные на агентах, возникают естественным образом, когда интерес от простых измерений и манипуляций с символами расширяется до более сложной парадигмы агента, обладающего знаниями, убеждениями, намерениями и свободой выбора. 

Появление последовательной теории количественного измерения информации в двадцатом веке тесно связано с развитием теории вычислений. Центральное место в этом контексте занимают понятия универсальности и эквивалентности (по Тьюрингу) и инвариантности: концепция системы Тьюринга определяет понятие универсального программируемого компьютера. Все универсальные модели вычислений, по-видимому, обладают одинаковой мощностью. Это означает, что все возможные меры информации, определяемые для универсальных моделей вычислений (рекурсивные функции, машина Тьюринга, лямбда-исчисление и т. д.), являются инвариантными по модулю аддитивной постоянной. Это дает представление о единой теории информации, которая может доминировать в исследовательской программе в ближайшие годы.

#technologies

 

АНОНСЫ СТАТЕЙ БЛОГА "В МИРЕ ИТ" ЧИТАЙТЕ:
ANNOUNCEMENTS OF BLOG ARTICLES "IN THE WORLD OF IT" READ:


  FACEBOOK 




Блог В мире ИТ      Blog In the world of IT

#блог-в-мире-ит, #inventor,  #news, #updates, #technology, #information, #hi-tech, #in-the-world-of-it, #информационные-технологии, #информация, #философия-информации, #IT, #блог-в-мире -ИТ, #in-the-world-of-IT, #technoblog,

Комментарии