Информация

Оглавление:

Информация
Информация

Видео: Информация

Видео: Информация
Видео: Что такое теория информации? (видео 1) | Теория информации | Программирование 2024, Март
Anonim

Входная навигация

  • Содержание входа
  • Библиография
  • Академические инструменты
  • Friends PDF Preview
  • Информация об авторе и цитировании
  • Вернуться к началу

Информация

Впервые опубликовано пт 26 октября 2012 г.; существенная редакция пт 14 декабря 2018 г.

Философия информации имеет дело с философским анализом понятия информации как с исторической, так и с систематической точки зрения. С появлением эмпирической теории познания в ранней современной философии, развитием различных математических теорий информации в двадцатом веке и развитием информационных технологий понятие «информация» заняло центральное место в науке и обществе., Этот интерес также привел к появлению отдельной ветви философии, которая анализирует информацию во всех ее проявлениях (Adriaans & van Benthem 2008a, b; Lenski 2010; Floridi 2002, 2011). Информация стала центральной категорией как в науке, так и в гуманитарных науках, и размышление об информации влияет на широкий круг философских дисциплин, отличающихся от логики (Dretske 1981;van Benthem & van Rooij 2003; van Benthem 2006, см. статью о логике и информации), эпистемологии (Simondon 1989), этике (Floridi 1999) и эстетике (Schmidhuber 1997a; Adriaans 2008), онтологии (Zuse 1969; Wheeler 1990; Schmidhuber 1997b; Wolfram 2002; Hutter 2010).).

Нет единого мнения о точном характере области философии информации. Несколько авторов предложили более или менее последовательную философию информации как попытку переосмыслить философию с новой точки зрения: например, квантовая физика (Mugur-Schächter 2002), логика (Brenner 2008), семантическая информация (Floridi 2011; Adams & de Moraes 2016 г., см. Статью о семантических концепциях информации), системах коммуникации и сообщений (Capurro & Holgate 2011) и мета-философии (Wu 2010, 2016). Другие (Adriaans & van Benthem 2008a; Lenski 2010) видят в ней скорее техническую дисциплину с глубокими корнями в истории философии и последствия для различных дисциплин, таких как методология, эпистемология и этика. Какой бы ни была интерпретация природы философии информации,Кажется, это подразумевает амбициозную исследовательскую программу, состоящую из многих подпроектов, варьирующихся от переосмысления истории философии в контексте современных теорий информации, до глубокого анализа роли информации в науке, гуманитарных науках и обществе как целое.

Термин «информация» в разговорной речи в настоящее время преимущественно используется как абстрактное массовое существительное, используемое для обозначения любого количества данных, кода или текста, которые хранятся, отправляются, принимаются или манипулируются на любом носителе. Подробная история как термина «информация», так и различных понятий, связанных с ним, является сложной, и по большей части ее еще предстоит написать (Seiffert 1968; Schnelle 1976; Capurro 1978, 2009; Capurro & Hjørland 2003). Точное значение термина «информация» варьируется в разных философских традициях, а его разговорное использование варьируется географически и в разных прагматических контекстах. Хотя анализ понятия «информация» был темой в западной философии с самого начала, явный анализ информации как философской концепции является недавним,и восходит ко второй половине двадцатого века. На данный момент ясно, что информация является ключевым понятием в науках и гуманитарных науках и в нашей повседневной жизни. Все, что мы знаем о мире, основано на информации, которую мы получили или собрали, и каждая наука в принципе имеет дело с информацией. Существует сеть взаимосвязанных концепций информации, имеющих корни в различных дисциплинах, таких как физика, математика, логика, биология, экономика и эпистемология. Все эти понятия объединяются вокруг двух основных свойств:с корнями в различных дисциплинах, таких как физика, математика, логика, биология, экономика и эпистемология. Все эти понятия объединяются вокруг двух основных свойств:с корнями в различных дисциплинах, таких как физика, математика, логика, биология, экономика и эпистемология. Все эти понятия объединяются вокруг двух основных свойств:

Информация обширна. Центральным является понятие аддитивности: комбинация двух независимых наборов данных с одинаковым объемом информации содержит вдвое больше информации, чем отдельные отдельные наборы данных. Понятие экстенсивности естественным образом возникает в наших взаимодействиях с окружающим миром, когда мы считаем и измеряем объекты и структуры. Основные концепции более абстрактных математических объектов, таких как множества, мультимножества и последовательности, были разработаны в начале истории на основе структурных правил манипулирования символами (Schmandt-Besserat 1992). Математическая формализация экстенсивности в терминах лог-функции имела место в контексте исследований в области термодинамики в девятнадцатом (Больцман, 1866) и начале двадцатого века (Гиббс, 1906). При кодировании в терминах более совершенных систем многомерных чисел (комплексных чисел,кватернионы, октонионы) понятие экстенсивности обобщает более тонкие понятия аддитивности, которые не соответствуют нашей повседневной интуиции. Тем не менее они играют важную роль в последних разработках теории информации, основанной на квантовой физике (Von Neumann 1932; Redei & Stöltzner 2001, см. Статью о квантовой запутанности и информации).

Информация уменьшает неопределенность. Количество информации, которую мы получаем, растет линейно с количеством, на которое она уменьшает нашу неопределенность до того момента, как мы получили всю возможную информацию, а количество неопределенности равно нулю. Связь между неопределенностью и информацией, вероятно, была впервые сформулирована эмпириками (Локк, 1689; Юм, 1748). Юм явно отмечает, что выбор из большего выбора возможностей дает больше информации. Это наблюдение достигло своей канонической математической формулировки в функции, предложенной Хартли (1928), которая определяет количество информации, которую мы получаем, когда выбираем элемент из конечного множества. Единственная математическая функция, которая объединяет эти две интуиции о экстенсивности и вероятности, - это та, которая определяет информацию в терминах отрицательного логарифма вероятности: (I (A) = - / log P (A)) (Shannon 1948;Шеннон и Уивер, 1949, Рени, 1961).

Однако элегантность этой формулы не защищает нас от концептуальных проблем, которые она таит в себе. В двадцатом веке были внесены различные предложения по формализации понятий информации:

  • Качественные теории информации

    1. Семантическая информация: Бар-Гилель и Карнап разработали теорию семантической информации (1953). Floridi (2002, 2003, 2011) определяет семантическую информацию как правильно сформированные, значимые и правдивые данные. Формальные определения информации, основанные на энтропии (Фишер, Шеннон, Квант, Колмогоров) работают на более общем уровне и не обязательно измеряют информацию в значимых достоверных наборах данных, хотя можно отстаивать мнение, что для того, чтобы данные были измеримыми, они должны быть хорошо сформирован (обсуждение см. в разделе 6.6 «Логическая и семантическая информация»). Семантическая информация близка нашему повседневному наивному представлению об информации как о чем-то, что передается истинными утверждениями о мире.
    2. Информация как состояние агента: формальная логическая трактовка таких понятий, как знания и убеждения, была инициирована Hintikka (1962, 1973). Dretske (1981) и van Benthem & van Rooij (2003) изучали эти понятия в контексте теории информации, ср. van Rooij (2003) о вопросах и ответах или Parikh & Ramanujam (2003) об общих сообщениях. Также Данн, кажется, имеет это в виду, когда он определяет информацию как «то, что остается от знания, когда отнимают веру, оправдание и правду» (Dunn 2001: 423; 2008). Виго предложил структурно-чувствительную теорию информации, основанную на сложности приобретения концепции агентами (Виго 2011, 2012).
  • Количественные теории информации

    1. Функция Найквиста : Найквист (1924), вероятно, был первым, кто выразил количество «интеллекта», которое могло быть передано при определенной скорости линии телеграфных систем в терминах лог-функции: (W = k / log m), где W - скорость передачи, K - постоянная, а m - различные уровни напряжения, которые можно выбрать.
    2. Информация Фишера: количество информации, которую наблюдаемая случайная величина X несет в себе о неизвестном параметре (theta), от которого зависит вероятность X (Fisher 1925).
    3. Функция Хартли: (Хартли, 1928, Рени, 1961, Виго, 2012). Количество информации, которую мы получаем, когда выбираем элемент из конечного набора S при равномерном распределении, является логарифмом мощности этого набора.
    4. Информация Шеннона: энтропия H дискретной случайной величины X является мерой степени неопределенности, связанной со значением X (Shannon 1948; Shannon & Weaver 1949).
    5. Сложность по Колмогорову: информация в двоичной строке x - это длина самой короткой программы p, которая производит x на эталонной универсальной машине Тьюринга U (Turing 1937; Solomonoff 1960, 1964a, b, 1997; Kolmogorov 1965; Chaitin 1969, 1987).
    6. Меры энтропии в физике: хотя они не во всех случаях являются строго мерами информации, различные понятия энтропии, определенные в физике, тесно связаны с соответствующими понятиями информации. Мы упоминаем энтропию Больцмана (Boltzmann, 1866), тесно связанную с функцией Хартли (Hartley 1928), энтропию Гиббса (Gibbs 1906), формально эквивалентную энтропии Шеннона, и различные обобщения, такие как энтропия Цаллиса (Tsallis 1988) и энтропия Реньи (Rényi 1961).
    7. Квантовая информация: кубит является обобщением классического бита и описывается квантовым состоянием в двухсистемной квантово-механической системе, которая формально эквивалентна двумерному векторному пространству над комплексными числами (Von Neumann 1932; Redei & Stöltzner 2001).

До недавнего времени возможность объединения этих теорий в целом ставилась под сомнение (Adriaans & van Benthem 2008a), но после двух десятилетий исследований перспективы объединения кажутся лучше.

Контуры единой концепции информации проявляются в следующих направлениях:

  • Философия информации является дочерней дисциплиной философии, тесно связанной с философией логики и математики. Философия семантической информации (Floridi 2011, D'Alfonso 2012, Adams & de Moraes, 2016) снова является субдисциплиной философии информации (см. Информационную карту в записи о семантических концепциях информации). С этой точки зрения философия информации заинтересована в исследовании предмета на самом общем уровне: данные, правильно сформированные данные, данные об окружающей среде и т. Д. Философия семантической информации добавляет измерения смысла и правдивости. Количественные теории информации можно интерпретировать в рамках философии семантической информации (подробное обсуждение см. В разделе 6.5).
  • Различные количественные понятия информации связаны с различными нарративами (подсчет, получение сообщений, сбор информации, вычисления), основанными на одной и той же базовой математической структуре. Многие проблемы в философии информационного центра связаны с проблемами в философии математики. Были изучены преобразования и редукции между различными формальными моделями (Cover & Thomas 2006; Grünwald & Vitányi 2008; Bais & Farmer 2008). Ситуация, которая, по-видимому, возникает, не отличается от концепции энергии: существуют различные формальные подтеории об энергии (кинетическая, потенциальная, электрическая, химическая, ядерная) с четко определенными преобразованиями между ними. Кроме того, термин «энергия» свободно используется в разговорной речи.
  • Основанные на агенте концепции информации возникают естественным образом, когда мы расширяем наш интерес от простого измерения и манипулирования символами до более сложной парадигмы агента со знаниями, убеждениями, намерениями и свободой выбора. Они связаны с развертыванием других концепций информации.

Появление последовательной теории количественного измерения информации в двадцатом веке тесно связано с развитием теории вычислений. В этом контексте центральными являются понятия универсальности, эквивалентности Тьюринга и инвариантности: поскольку концепция системы Тьюринга определяет понятие универсального программируемого компьютера, все универсальные модели вычислений, похоже, имеют одинаковую силу. Это означает, что все возможные меры информации, определяемые для универсальных моделей вычислений (рекурсивные функции, машина Тьюринга, лямбда-исчисление и т. Д.), Асимптотически инвариантны. Это дает представление о единой теории информации, которая может доминировать в исследовательской программе в ближайшие годы.

  • 1. Информация в разговорной речи
  • 2. История термина и понятие информации

    • 2.1 Классическая философия
    • 2.2 Средневековая философия
    • 2.3 Современная философия
    • 2.4 Историческое развитие значения термина «информация»
  • 3. Строительные блоки современных теорий информации

    • 3.1 Языки
    • 3.2 Оптимальные коды
    • 3.3 Числа
    • 3.4 Физика
  • 4. События в философии информации

    • 4.1 Поппер: информация как степень фальсификации
    • 4.2 Шеннон: информация, определенная с точки зрения вероятности
    • 4.3. Соломонов, Колмогоров, Чайтин: информация как длина программы
  • 5. Систематические соображения

    • 5.1 Философия информации как расширение философии математики

      • 5.1.1 Информация как природное явление
      • 5.1.2 Обработка символов и обширность: множества, мультимножества и строки
      • 5.1.3 Наборы и числа
      • 5.1.4 Измерение информации в цифрах
      • 5.1.5 Измерение информации и вероятностей в наборах чисел
      • 5.1.6 Перспективы объединения
      • 5.1.7 Обработка информации и поток информации
      • 5.1.8 Информация, простые числа и факторы
      • 5.1.9 Неполнота арифметики
    • 5.2 Информационные и символические вычисления

      • 5.2.1 Машины Тьюринга
      • 5.2.2 Универсальность и инвариантность
    • 5.3 Квантовая информация и не только
  • 6. Аномалии, парадоксы и проблемы

    • 6.1. Парадокс системного поиска
    • 6.2 Эффективный поиск в конечных множествах
    • 6.3. Проблема P против NP, сложность описания и сложность времени
    • 6.4 Выбор модели и сжатие данных
    • 6.5 Детерминизм и термодинамика
    • 6.6 Логическая и семантическая информация
    • 6.7. Значение и вычисления
  • 7. Заключение
  • Библиография
  • Академические инструменты
  • Другие интернет-ресурсы
  • Связанные Записи

1. Информация в разговорной речи

Отсутствие точности и универсальная полезность термина «информация» неразрывно связаны. В нашем обществе, в котором мы исследуем реальность с помощью приборов и установок все возрастающей сложности (телескопы, циклотроны) и общаемся с помощью более совершенных средств массовой информации (газеты, радио, телевидение, SMS, Интернет), полезно иметь абстрактную массовое существительное для «материала», который создается инструментами и который «течет» через эти медиа. Исторически этот общий смысл появился довольно поздно и, похоже, связан с ростом средств массовой информации и спецслужб (Devlin & Rosenberg 2008; Adriaans & van Benthem 2008b).

В современной разговорной речи термин «информация» используется различными свободно определенными и часто даже противоречивыми способами. Например, большинство людей сочли бы правильным следующий вывод prima facie:

Если я получу информацию, что р, то я знаю, что р.

У тех же людей, вероятно, не возникнет проблем с утверждением, что «Секретные службы иногда распространяют ложную информацию», или с предложением «Информация, предоставленная свидетелями аварии, была расплывчатой и противоречивой». Первое утверждение подразумевает, что информация обязательно является правдой, в то время как другие утверждения допускают возможность того, что информация является ложной, противоречивой и расплывчатой. В повседневном общении эти несоответствия не создают больших проблем, и в целом из прагматического контекста ясно, какой тип информации обозначается. Этих примеров достаточно для того, чтобы утверждать, что ссылки на нашу интуицию как носителей английского языка мало помогают в разработке строгой философской теории информации. Кажется, что в повседневном общении нет прагматического давления, чтобы сходиться к более точному определению понятия информации.

2. История термина и понятие информации

До второй половины двадцатого века практически ни один современный философ не считал «информацию» важной философской концепцией. Термин не имеет леммы в известной энциклопедии Эдвардса (1967) и не упоминается в Windelband (1903). В этом контексте интерес к «Философии информации» возник недавно. Тем не менее, оглядываясь назад с точки зрения истории идей, размышление над понятием «информация» было доминирующей темой в истории философии. Реконструкция этой истории актуальна для изучения информации.

Проблема с любым подходом «истории идей» заключается в проверке основополагающего предположения о том, что изучаемая концепция действительно имеет преемственность в истории философии. В случае исторического анализа информации можно задаться вопросом, имеет ли обсуждаемое Августином понятие «информация» какое-либо отношение к информации Шеннона, кроме сходства терминов. В то же время можно спросить, является ли «исторический, простой метод» Локка важным вкладом в возникновение современной концепции информации, хотя в своих работах Локк почти не использует термин «информация» в техническом смысле. Как показано ниже, существует конгломерат идей с понятием информации, который развивался с древности до недавних времен, но необходимо дальнейшее изучение истории понятия информации.

Важной повторяющейся темой в раннем философском анализе знания является парадигма манипулирования куском воска: либо просто деформируя его, либо запечатлевая в нем кольцо с печаткой, либо надписывая на нем символы. Тот факт, что воск может принимать различные формы и второстепенные качества (температура, запах, осязание), а объем (расширение) остается неизменным, делает его богатым источником аналогий, естественных для греческой, римской и средневековой культуры, где воск использовался одновременно. для скульптуры, письма (восковые таблички) и энкаустики. Эта тема встречается в трудах таких разных авторов, как Демокрит, Платон, Аристотель, Феофраст, Цицерон, Августин, Авиценна, Дунс Скот, Аквинский, Декарт и Локк.

2.1 Классическая философия

В классической философии «информация» была техническим понятием, связанным с теорией познания и онтологии, которая возникла в теории форм Платона (427–347 гг. До н.э.), развитой в ряде его диалогов (Федон, Федр, Симпозиум, Тимей, Республика)., Различные несовершенные индивидуальные лошади в физическом мире могут быть идентифицированы как лошади, потому что они участвовали в статической вневременной и пространственной идее «лошадиности» в мире идей или форм. Когда более поздние авторы, такие как Цицерон (106–43 до н.э.) и Августин (354–430 гг. Н. Э.), Обсуждали латинские концепции Платона, они использовали термины informare и informatio в качестве перевода для технических греческих терминов, таких как эйдос (сущность), идея (идея), опечатки (тип), морфе (форма) и пролепсис (представление). Корень «форма» все еще узнаваем в слове «форма» (Capurro & Hjørland 2003). Теория форм Платона была попыткой сформулировать решение различных философских проблем: теория форм является посредником между статической (Парменид, около 450 г. до н.э.) и динамической (Гераклейтос, около 535–475 гг. До н.э.) онтологической концепцией реальности и он предлагает модель для изучения теории человеческих знаний. Согласно Теофрасту (371–287 гг. До н.э.) аналогия восковой таблетки восходит к Демокриту (ок. 460–380 / 370 г. до н.э.) (De Sensibus 50). В Theaetetus (191c, d) Платон сравнивает функцию нашей памяти с восковой табличкой, в которой наши восприятия и мысли отпечатаны, как перстень с печатью, отпечатывает отпечатки на воске. Обратите внимание, что метафора запечатления символов в воске по существу пространственная (обширная) и не может быть легко согласована с пространственной интерпретацией идей, поддерживаемых Платоном.

Человек получает представление о роли понятия «форма» в классической методологии, если учесть учение Аристотеля (384–322 гг. До н.э.) о четырех причинах. В аристотелевской методологии понимание объекта подразумевает понимание четырех различных его аспектов:

Материальная причина: что в результате присутствия чего-то возникает, например, бронза статуи и серебро кубка, и классы, которые содержат эти

Формальная причина: форма или шаблон; то есть основная формула и классы, которые ее содержат, например, соотношение 2: 1 и число в целом, является причиной октавы и частей формулы.

Эффективная причина: источник первого начала изменения или отдыха; например, человек, который планирует, является причиной, а отец - причиной ребенка, и в целом то, что производит, является причиной того, что производится, и того, что меняет то, что изменяется.

Конечная причина: то же, что и «конец»; конечная причина; Например, «конец» ходьбы - это здоровье. Почему человек ходит? «Чтобы быть здоровым», мы говорим, и, сказав это, мы считаем, что мы предоставили причину. (Аристотель, Метафизика 1013а)

Обратите внимание, что Аристотель, который отвергает теорию форм Платона как вневременные пространственные объекты, все еще использует «форму» в качестве технической концепции. В этом отрывке говорится, что знание формы или структуры объекта, то есть информации, является необходимым условием для его понимания. В этом смысле информация является ключевым аспектом классической эпистемологии.

Тот факт, что соотношение 2: 1 приводится в качестве примера, также иллюстрирует глубокую связь между понятием форм и идеей о том, что мир регулируется математическими принципами. Платон полагал под влиянием более старой пифагорейской традиции (Pythagoras 572 - ок. 500 г. до н.э.), что «все, что возникает и происходит в мире», может быть измерено с помощью чисел (Политик 285а). В некоторых случаях Аристотель упоминает тот факт, что Платон связывал идеи с числами (Vogel 1968: 139). Хотя формальные математические теории об информации появились только в двадцатом веке, и нужно быть осторожным, чтобы не интерпретировать греческое понятие числа в каком-либо современном смысле, идея о том, что информация была по существу математическим понятием, восходит к классической философии:форма объекта была задумана как структура или шаблон, который можно описать в терминах чисел. Такая форма имела как онтологический, так и эпистемологический аспект: она объясняет как суть, так и понятность объекта. Таким образом, понятие информации с самого начала философских размышлений уже было связано с эпистемологией, онтологией и математикой.

Две фундаментальные проблемы, которые не объясняются классической теорией идей или форм: 1) фактический акт познания объекта (т. Е. Если я вижу лошадь, каким образом идея лошади активируется в моем уме) и 2) процесс мышления как манипулирование идеями. Аристотель рассматривает эти проблемы в De Anime, ссылаясь на аналогию «перстень-печатка-впечатление-в-воске»:

Под «чувством» понимается то, что обладает способностью принимать в себя разумные формы вещей без материи. Это должно восприниматься как то, как кусочек воска производит впечатление кольца с печаткой без железа или золота; мы говорим, что то, что производит впечатление, - это перстень из бронзы или золота, но его особая металлическая конституция не имеет никакого значения: аналогичным образом на чувство влияет то, что окрашено, приправлено или звучит, но безразлично, что в каждом случае вещество есть; важно только то, какое качество оно имеет, т. е. в каком соотношении сочетаются его составляющие. (Де Аниме, Книга II, Гл. 12)

Разве мы уже не избавились от трудности взаимодействия с общим элементом, когда мы сказали, что в каком-то смысле разум потенциально потенциально мыслим, хотя на самом деле он ничто, пока не подумал? То, что он думает, должно быть в нем так же, как можно сказать, что персонажи написаны на письменном планшете, на котором еще ничего не написано: это именно то, что происходит с умом. (Де Аниме, Книга III, Гл. 4)

Эти отрывки богаты влиятельными идеями и могут быть задним числом восприняты как программные для философии информации: процесс информации можно представить как отпечаток символов на восковой табличке (tabula rasa), мышление можно проанализировать с точки зрения манипуляции символов.

2.2 Средневековая философия

На протяжении всего Средневековья размышления над понятием информативности принимаются последовательными мыслителями. Иллюстрацией аристотелевского влияния является отрывок Августина из книги Де Тринитате XI. Здесь он анализирует видение как аналогию для понимания Троицы. Существуют три аспекта: телесная форма во внешнем мире, информация, создаваемая чувством зрения, и возникающая форма в уме. Для этого процесса информации Августин использует изображение перстня с печаткой, производящего впечатление в воске (De Trinitate, XI Cap 2 par 3). Капурро (2009) отмечает, что этот анализ можно интерпретировать как раннюю версию технической концепции «отправки сообщения» в современной теории информации, но эта идея старше и является общей темой в греческой мысли (Plato Theaetetus 191c, d; Аристотель де Аниме, книга II, глава 12, книга III, глава 4;Теофраст Де Сенсибус 50).

Понятие «tabula rasa» было позже развито в теории познания Авиценны (ок. 980–1037 гг. Н.э.):

Человеческий интеллект при рождении скорее похож на tabula rasa, чистую потенциальность, которая реализуется через образование и познается. Знание достигается через эмпирическое знакомство с объектами в этом мире, из которых абстрагируются универсальные понятия. (Саджад 2006 [Другие интернет-ресурсы [далее OIR])

Идея табула раса развития человеческого разума была темой романа «Хай ибн Якдхан» арабского андалузского философа Ибн Туфаила (1105–1185 гг. Н.э., известного на западе как «Abubacer» или «Эбн Топайл»). Этот роман описывает развитие изолированного ребенка на необитаемом острове. Более поздний перевод на латынь под названием Philosophus Autodidactus (1761) оказал влияние на эмпирика Джона Локка при формулировании его учения tabula rasa.

Помимо постоянной творческой напряженности между теологией и философией, средневековую мысль, после повторного открытия Метафизики Аристотеля в двенадцатом веке, вдохновленной арабскими учеными, можно охарактеризовать как сложную и тонкую интерпретацию и развитие, в основном аристотелевской, классической теории. Под влиянием Авиценны размышляют над понятием информативности такие мыслители, как Аквинский (1225–1274 гг.) И Дунс Скот (1265/66–1308 гг.). Когда Аквинский обсуждает вопрос о том, могут ли ангелы взаимодействовать с материей, он обращается к аристотелевской доктрине гиломорфизма (т. Е. К теории о том, что вещество состоит из материи (гило (дерево), материя) и формы (морфа)). Здесь Аквинский переводит это как информацию о материи (informatio materiae) (Summa Theologiae, 1a 110 2; Capurro 2009). Дунс Скот ссылается на информацию в техническом смысле, когда он обсуждает теорию зрения Августина в Де Тринитате, XI, глава 2, п. 3 (Дунс Скот, 1639, «Де воображение», Ordinatio, I, d.3, p.3).

Напряжение, которое уже существовало в классической философии между платоническим идеализмом (universalia ante res) и аристотелевским реализмом (universalia in rebus), отражено как проблема универсалий: существуют ли универсальные качества, такие как «человечность» или идея лошади, отдельно от индивидуума сущности, которые их создают? Именно в контексте его отказа от универсалий Оккэм (ок. 1287–1347 гг. Н. Э.) Представляет свою известную бритву: сущности не следует умножать сверх необходимости. Во всех своих трудах Аквинский и Скот используют латинские термины informatio и informare в техническом смысле, хотя Оккам и не использует эту терминологию.

2.3 Современная философия

История понятия информации в современной философии сложна. Вероятно, начиная с четырнадцатого века термин «информация» появился в различных развивающихся европейских языках в общем значении «образование» и «запрос». Французский исторический словарь Годфруа (1881) дает ранние значения «информации» как «де-факто», «обучение», «enquête», «наука», «талант». Термин также использовался в явном виде для юридических запросов (Dictionnaire du Moyen Français (1330–1500) 2015). Из-за этого разговорного использования термин «информация» постепенно теряет связь с понятием «форма» и все меньше и меньше появляется в формальном смысле в философских текстах.

В конце средневековья общество и наука существенно изменились (Hazard 1935; Ong 1958; Dijksterhuis 1986). В длительном сложном процессе аристотелевская методология четырех причин была преобразована для удовлетворения потребностей экспериментальной науки:

  1. Материальное Дело развилось в современное представление о материи.
  2. Формальная причина была переосмыслена как геометрическая форма в пространстве.
  3. Эффективная причина была переопределена как прямое механическое взаимодействие между материальными телами.
  4. Конечная причина была отклонена как ненаучная. Из-за этого у современников Ньютона возникли трудности с понятием силы тяжести в его теории. Гравитация как действие на расстоянии, казалось, была повторным введением конечных причин.

В этом изменяющемся контексте аналогия воскового впечатления переосмысливается. Прото-версия современной концепции информации как структуры множества или последовательности простых идей разработана эмпириками, но поскольку технический смысл термина «информация» утерян, эта теория познания никогда не идентифицируется как новая «теория информации».

Следствием этого изменения в методологии является то, что только явления, которые могут быть объяснены с точки зрения механического взаимодействия между материальными телами, могут быть изучены с научной точки зрения. Это подразумевает в современном смысле: сокращение интенсивных свойств до измеримых экстенсивных свойств. Для Галилея это понимание программно:

Чтобы возбудить в нас вкусы, запахи и звуки, я считаю, что во внешних телах ничего не требуется, кроме форм, чисел и медленных или быстрых движений. (Галилей 1623 [1960: 276)

Эти идеи позже привели к доктрине различия между первичными качествами (пространство, форма, скорость) и вторичными качествами (тепло, вкус, цвет и т. Д.). В контексте философии информации наблюдения Галилея о вторичном качестве «тепла» имеют особое значение, поскольку они закладывают основы для изучения термодинамики в XIX веке:

Показав, что многие ощущения, которые должны быть качествами, находящимися во внешних объектах, не имеют реального существования, кроме как в нас, а вне нас самих - просто имена, я теперь говорю, что склонен полагать, что тепло имеет этот характер. Те материалы, которые производят в нас тепло и заставляют нас чувствовать тепло, известное под общим названием «огонь», будут множеством мельчайших частиц, имеющих определенные формы и движущихся с определенными скоростями. (Галилей 1623 [1960: 277)

Ключевым мыслителем в этой трансформации является Рене Декарт (1596–1650 гг.). В его «Размышлениях» после «доказательства» того, что материя (res extensa) и разум (res cogitans) являются различными веществами (то есть формами существования независимо друг от друга), вопрос о взаимодействии между этими веществами становится проблемой. Податливость воска является для Декарта явным аргументом против влияния res extensa на res cogitans (Meditationes II, 15). Тот факт, что кусок воска легко теряет свою форму и другие качества при нагревании, означает, что чувства не подходят для идентификации объектов в мире. Истинное знание, таким образом, может быть достигнуто только через «проверку ума». Здесь восковая метафора, которая в течение более 1500 лет использовалась для объяснения чувственного впечатления, используется в качестве аргумента против возможности достижения знания посредством чувств. Поскольку суть res extensa - это расширение, мышление принципиально не может быть понято как пространственный процесс. Декарт все еще использует термины «форма» и «идея» в первоначальном схоластическом не геометрическом (вневременном, пространственном) смысле. Примером является краткое формальное доказательство существования Бога во втором ответе Мерсенну в «Meditationes de Prima Philosophia». Примером является краткое формальное доказательство существования Бога во втором ответе Мерсенну в «Meditationes de Prima Philosophia». Примером является краткое формальное доказательство существования Бога во втором ответе Мерсенну в «Meditationes de Prima Philosophia».

Я использую термин идея для обозначения формы любой данной мысли, непосредственное восприятие которой заставляет меня осознать мысль.

(Идея номинируется как разумная мысль, формальная форма, согласно принципу восприятия ипсиус эйусдем, идея, сознательная сумма)

Я называю их «идеями», говорит Декарт

только в той мере, в какой они влияют на сам разум, когда они сообщают эту часть мозга.

(SED Tantum quatenus mentem ipsam в illam Cerebri partem conversam информатора). (Декарт, 1641, «Ad Secundas Возражения», «Обоснования», «Dei existentiam» и «Animerectionmentem probantes», подробнее Geometrico dispositae.)

Поскольку res extensa и res cogitans - это разные субстанции, акт мышления никогда не может быть воспроизведен в космосе: у машин не может быть универсальной способности разума. Декарт дает две отдельные мотивации:

Первое из них заключается в том, что они никогда не могли бы использовать слова или другие знаки, расположенные таким образом, который нам подходит, чтобы заявить о своих мыслях другим: (…) Второй тест состоит в том, что, хотя такие машины могут выполнять много вещей с равные или, возможно, более совершенные, чем любой из нас, они, без сомнения, потерпят неудачу в некоторых других, из которых можно было бы обнаружить, что они действовали не из знания, а исключительно из расположения своих органов: поскольку разум является универсальным инструментом что одинаково доступно в каждом случае, эти органы, напротив, нуждаются в особой договоренности для каждого конкретного действия; поэтому должно быть морально невозможным, чтобы в любой машине существовало множество органов, достаточных для того, чтобы она могла действовать во всех жизненных ситуациях таким образом, каким наш разум позволяет нам действовать.(Discourse de la Méthode, 1647)

Этот отрывок актуален, поскольку в нем прямо говорится о возможности искусственного интеллекта, и его даже можно интерпретировать как аргумент против возможности универсальной машины Тьюринга: разум как универсальный инструмент никогда не может подражать в космосе. Эта концепция находится в противоречии с современной концепцией информации, которая как измеримая величина является по существу пространственной, т. Е. Обширной (но в некотором смысле отличной от концепции Декарта).

Декарт не представляет новую интерпретацию понятий формы и идеи, но он готовит почву для дискуссии о природе идей, которая развивается вокруг двух противоположных позиций:

Рационализм: картезианское представление о том, что идеи являются врожденными и, следовательно, априори. Эта форма рационализма подразумевает интерпретацию понятия идей и форм как временных, пространственных, но сложных структур, т. Е. Идеи «лошади» (т. Е. С головой, телом и ногами). Это также хорошо согласуется с интерпретацией познающего субъекта как созданного существа (ens creatu). Бог создал человека по своему собственному образу и таким образом обеспечил человеческий разум адекватным набором идей, чтобы понять его творение. В этой теории рост знаний априори ограничен. Создание новых идей ex nihilo невозможно. Эту точку зрения трудно совместить с концепцией экспериментальной науки.

Эмпиризм. Концепты строятся в уме апостериорно на основе идей, связанных с чувственными впечатлениями. Эта доктрина подразумевает новую интерпретацию концепции идеи как:

что бы ни было объектом понимания, когда человек думает … все, что подразумевается под фантазией, понятием, видом или чем-то еще, о чем может быть использован умом, думая. (Локк 1689, кн. I, ч. 1, п. 8)

Здесь идеи воспринимаются как элементарные строительные блоки человеческого знания и рефлексии. Это хорошо согласуется с требованиями экспериментальной науки. Недостатком является то, что разум никогда не сможет сформулировать аподейтические истины о причине и следствиях и сущности наблюдаемых сущностей, включая свою собственную идентичность. Человеческое знание становится по существу вероятностным (Локк 1689: кн. I, гл. 4, п. 25).

Переосмысление Локком понятия идеи как «структурного заполнителя» для любой сущности, присутствующей в сознании, является важным шагом в появлении современной концепции информации. Поскольку эти идеи не участвуют в обосновании аподейтических знаний, необходимость подчеркивать вневременную и пространственную природу идей исчезает. Построение концепций на основе совокупности элементарных идей, основанных на чувственном опыте, открывает возможность для реконструкции знания как обширного свойства агента: больше идей подразумевает более вероятное знание.

Во второй половине XVII века формальная теория вероятности была разработана такими исследователями, как Паскаль (1623–1662), Ферма (1601 или 1606–1665) и Кристиан Гюйгенс (1629–1695). Работа De ratiociniis in ludo aleae of Huygens была переведена на английский язык Джоном Арбутнотом (1692). Для этих авторов мир был по сути механистическим и, следовательно, детерминированным, вероятность была качеством человеческого знания, вызванного его несовершенством:

Для кубика с такой определенной силой и направлением невозможно упасть на такую определенную сторону, только я не знаю силы и направления, из-за которых он падает на такую решительную сторону, и поэтому я Назовите это Шансом, который есть не что иное, как недостаток искусства;… (Джон Арбутнот О Законах Шанса (1692), предисловие)

Этот текст, вероятно, повлиял на Юма, который первым объединил формальную теорию вероятностей с теорией познания:

Хотя в мире нет такой вещи, как Шанс; наше незнание истинной причины любого события оказывает такое же влияние на понимание и порождает подобный вид убеждений или мнений. (…) Если краситель был отмечен одной цифрой или числом пятен на четырех сторонах, а другой цифрой или числом пятен на двух оставшихся сторонах, было бы более вероятно, что первый окажется выше, чем второй; хотя, если бы на нем было одинаково помечено тысяча сторон, и отличалась бы только одна сторона, вероятность была бы намного выше, а наша вера или ожидание события более устойчивыми и безопасными. Этот процесс мышления или рассуждения может показаться тривиальным и очевидным; но для тех, кто рассматривает это более узко, это может, возможно, позволить вопрос для любопытных предположений. (Юм 1748: Раздел VI, «О вероятности» 1)

Здесь знание о будущем как степени веры измеряется вероятностью, которая, в свою очередь, объясняется количеством конфигураций, которые может иметь детерминированная система в мире. Основные строительные блоки современной теории информации на месте. С помощью этой новой концепции знаний эмпирики заложили основу для последующего развития термодинамики как снижения вторичного качества тепла до первичных качеств тел.

В то же время термин «информация», по-видимому, утратил значительную часть своего технического значения в трудах эмпириков, поэтому это новое развитие не обозначено как новое толкование понятия «информация». Локк иногда использует фразу, что наши чувства «информируют» нас о мире, а иногда использует слово «информация».

Для какой информации, что знание несет в себе это предложение, а именно. «Свинец - это металл» человеку, который знает сложную идею, за которой стоит имя «ведущий»? (Локк 1689: БК IV, гл 8, параграф 4)

Юм, кажется, использует информацию таким же случайным образом, когда замечает:

Два объекта, хотя они совершенно похожи друг на друга и даже появляются в одном и том же месте в разное время, могут численно отличаться друг от друга: и поскольку сила, с помощью которой один объект производит другой, никогда не может быть обнаружена просто исходя из их идеи, это очевидная причина и Следствием являются отношения, о которых мы получаем информацию из опыта, а не из каких-либо абстрактных рассуждений или размышлений. (Юм 1739: Часть III, раздел 1)

Методология эмпириков не без проблем. Самая большая проблема заключается в том, что все знания становятся вероятностными и апостериорными. Иммануил Кант (1724–1804) одним из первых указал, что человеческий разум обладает мета-концепциями пространства, времени и причинности, которые никогда не могут быть поняты как результат простого сочетания «идей»., Более того, эти интуиции позволяют нам с уверенностью формулировать научные идеи: то есть тот факт, что сумма углов треугольника в евклидовом пространстве равна 180 градусам. Эта проблема не может быть объяснена в эмпирических рамках. Если знание создается с помощью комбинации идей, тогда должен существовать априорный синтез идей в человеческом разуме. Согласно Канту, это подразумевает, что человеческий разум может оценить свою способность формулировать научные суждения. В своем «Критике динайнена Вернунфта» (1781) Кант развил трансцендентальную философию как исследование необходимых условий человеческого знания. Хотя трансцендентальная программа Канта не внесла непосредственного вклада в развитие концепции информации, он оказал влияние на исследования основ математики и знаний, относящихся к этому предмету в XIX и XX веках: например, работы Фреге, Гуссерля, Рассела Брауэр Л. Витгенштейн, Гедель, Карнап, Поппер и Куайн.он оказал влияние на исследования основ математики и знаний, относящихся к этому предмету в девятнадцатом и двадцатом веках: например, работы Фреге, Гуссерля, Рассела, Брауэра, Л. Витгенштейна, Геделя, Карнапа, Поппера и Куайна.он оказал влияние на исследования основ математики и знаний, относящихся к этому предмету в девятнадцатом и двадцатом веках: например, работы Фреге, Гуссерля, Рассела, Брауэра, Л. Витгенштейна, Геделя, Карнапа, Поппера и Куайна.

2.4 Историческое развитие значения термина «информация»

История термина «информация» неразрывно связана с изучением центральных проблем эпистемологии и онтологии в западной философии. После начала в качестве технического термина в классических и средневековых текстах термин «информация» почти исчез из философского дискурса в современной философии, но приобрел популярность в разговорной речи. Постепенно термин получил статус абстрактного массового существительного, то есть значения, ортогонального классическому смыслу, ориентированному на процесс. В этой форме он был подхвачен несколькими исследователями (Fisher 1925; Shannon 1948) в двадцатом веке, которые ввели формальные методы измерения «информации». Это, в свою очередь, привело к возрождению философского интереса к понятию информации. Эта сложная история, кажется, является одной из главных причин трудностей в формулировании определения единого понятия информации, которое удовлетворяет всем нашим представлениям. Как минимум три разных значения слова «информация» исторически актуальны:

«Информация» как процесс информирования

Это самое старое значение, которое можно найти в трудах таких авторов, как Цицерон (106–43 гг. До н.э.) и Августин (354–430 гг. Н. Э.), И оно теряется в современном дискурсе, хотя связь информации с процессами (т. Е. Вычислением, потоком или отправка сообщения) еще существует. В классической философии можно сказать, что, когда я узнаю лошадь как таковую, в моем сознании появляется «форма» лошади. Этот процесс - моя «информация» о природе лошади. Также акт преподавания можно назвать «информацией» ученика. В этом же смысле можно сказать, что скульптор создает скульптуру, «информируя» кусок мрамора. Задача скульптора - «информация» статуи (Capurro & Hjørland 2003). Это ориентированное на процесс значение сохранилось довольно долго в западноевропейском дискурсе:даже в восемнадцатом веке Робинзон Крузо мог назвать образование своего слуги Пятницы своей «информацией» (Дефо 1719: 261). В этом смысле он также используется Беркли: «Я люблю информацию по всем темам, которые встречаются у меня на пути, и особенно по наиболее важным» (Alciphron Dialogue 1, Section 5, Parameter 6/10, см. Berkeley 1732).

«Информация» как состояние агента

т. е. в результате процесса информирования. Если кто-то обучает ученика теореме Пифагора, то после завершения этого процесса можно сказать, что ученик «обладает информацией о теореме Пифагора». В этом смысле термин «информация» является результатом той же подозрительной формы обоснования глагола (informare (gt) informatio), что и многих других технических терминов в философии (субстанция, сознание, субъект, объект). Этот вид терминологии печально известен своими концептуальными трудностями. Можно ли вывести факт, что у меня «есть» сознание, из того, что я сознательный? Можно ли получить тот факт, что у меня «есть» информация, из того, что мне сообщили? Переход к этому современному обоснованному значению, по-видимому, происходил постепенно и, по-видимому, был общим в Западной Европе, по крайней мере, с середины XV века. В эпоху Возрождения ученого можно было назвать «человеком информации», почти так же, как мы теперь можем сказать, что кто-то получил образование (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). В «Эмме» Джейн Остин можно прочитать: «Мистер Мартин, я полагаю, не человек информации, выходящий за рамки его собственного бизнеса. Он не читает »(Остин 1815: 21).почти так же, как мы сейчас можем сказать, что кто-то получил образование (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). В «Эмме» Джейн Остин можно прочитать: «Мистер Мартин, я полагаю, не человек информации, выходящий за рамки его собственного бизнеса. Он не читает »(Остин 1815: 21).почти так же, как мы сейчас можем сказать, что кто-то получил образование (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). В «Эмме» Джейн Остин можно прочитать: «Мистер Мартин, я полагаю, не человек информации, выходящий за рамки его собственного бизнеса. Он не читает »(Остин 1815: 21).

«Информация» как распоряжение информировать

т. е. как способность объекта информировать агента. Когда акт обучения мне теоремы Пифагора оставляет мне информацию об этой теореме, естественно предположить, что текст, в котором объясняется теорема, действительно «содержит» эту информацию. Текст может сообщить мне, когда я его прочитаю. В том же смысле, когда я получил информацию от учителя, я способен передать эту информацию другому ученику. Таким образом, информация становится чем-то, что можно хранить и измерять. Эта последняя концепция информации как абстрактного массового существительного получила широкое признание в современном обществе и обрела окончательную форму в XIX веке, позволив Шерлок Хоумс сделать следующее наблюдение:«… Друг Лестрейд держал в руках информацию, ценность которой сам не знал» («Приключение благородного холостяка», Конан Дойл, 1892). Ассоциация с техническими философскими понятиями, такими как «форма» и «информирование», исчезла из общего сознания, хотя связь между информацией и процессами, такими как хранение, сбор, вычисления и обучение, все еще существует.

3. Строительные блоки современных теорий информации

Оглядываясь назад, многие понятия, которые имеют отношение к оптимальным системам кода, идеальным языкам и ассоциации между языком вычислений и обработки, были постоянными темами в философском осмыслении с семнадцатого века.

3.1 Языки

Одно из наиболее сложных предложений по универсальному «философскому» языку было сделано епископом Джоном Уилкинсом: «Эссе о реальном характере и философском языке» (1668). Проект Уилкинса состоял из сложной системы символов, которые предположительно были связаны с однозначными концепциями в реальности. Подобные предложения сделали философов чувствительными к глубоким связям между языком и мышлением. Эмпирическая методология позволила представить развитие языка как системы условных знаков с точки зрения связей между идеями в человеческом разуме. Проблема, которая в настоящее время известна как проблема заземления символов (как произвольные знаки приобретают межсубъективное значение), была одной из наиболее обсуждаемых в восемнадцатом веке в контексте проблемы происхождения языков. Разнообразные мыслители, такие как Вико, Кондиллак, Руссо, Дидро, Гердер и Хаман, внесли свой вклад. Центральный вопрос заключался в том, был ли язык задан априори (Богом) или он был создан и, следовательно, выдумка самого человека. Типичным был конкурс, изданный Королевской прусской академией наук в 1769 году:

Что вы думаете о том, что вы хотите сказать, что вы хотите? Et par quels moyens parviendront-ils d'eux-mêmes à cette изобретение?

Если предположить, что люди отказались от своих естественных способностей, могут ли они изобрести язык и какими средствами они придут к этому изобретению? [1]

Спор продолжался более века без какого-либо заключения, и в 1866 году Парижское лингвистическое общество (Société de Linguistique de Paris) изгнало этот вопрос со своей арены. [2]

С философской точки зрения более актуальной является работа Лейбница (1646–1716) по так называемой характеристике универсалии: понятию универсального логического исчисления, которое было бы идеальным средством для научных рассуждений. Центральное предположение в философии Лейбница заключается в том, что такой совершенный язык науки в принципе возможен из-за совершенной природы мира как творения Бога (отношение essendi = ration cognoscendi, происхождение бытия является источником знания). Этот принцип был отвергнут Вольфом (1679–1754), который предложил более эвристически ориентированную характеристику комбинатории (van Peursen 1987). Эти идеи должны были ждать таких мыслителей, как Буль (1854, «Исследование законов мысли»), Фреге (1879, «Бегриффшрифт»),Пирс (который в 1886 году уже предложил использовать электрические схемы для обработки логических операций) и Уайтхед и Рассел (1910–1913, Principia Mathematica) нашли более плодотворное решение.

3.2 Оптимальные коды

Тот факт, что частоты букв различаются в зависимости от языка, был известен с момента изобретения книгопечатания. Принтеры нуждались в гораздо большем количестве «e» и «t», чем «x» или «q», чтобы набирать текст на английском языке. Эти знания широко использовались для расшифровки шифров с семнадцатого века (Кан 1967; Сингх 1999). В 1844 году помощник Сэмюэля Морса Альфред Вейл определил частоту писем, используемых в местной газете в Морристауне, штат Нью-Джерси, и использовал их для оптимизации азбуки Морзе. Таким образом, ядро теории оптимальных кодов было создано задолго до того, как Шеннон разработал свою математическую основу (Shannon 1948; Shannon & Weaver 1949). Исторически важными, но философски менее значимыми являются усилия Чарльза Бэббиджа по созданию вычислительных машин (Difference Engine в 1821 году,и Analytical Engine 1834–1871) и попытка Ады Лавлейс (1815–1852) разработать то, что считается первым языком программирования для Analytical Engine.

3.3 Числа

Самый простой способ представления чисел - через унарную систему. Здесь длина представления числа равна размеру самого числа, т. Е. Число «десять» представляется как «\\\\\\\\\\». Классическая римская система счисления является улучшением, поскольку она содержит разные символы для разных порядков величины (один = I, десять = X, сто = C, тысяча = M). Эта система имеет огромные недостатки, поскольку в принципе для кодирования натуральных чисел требуется бесконечное количество символов, и поэтому одни и те же математические операции (сложение, умножение и т. Д.) Принимают разные формы с разным порядком величины. Около 500 г. н.э. число ноль было изобретено в Индии. Используя ноль в качестве заполнителя, мы можем кодировать бесконечность чисел с конечным набором символов (один = I, десять = 10, сто = 100, тысяча = 1000 и т. Д.). С современной точки зрения возможно бесконечное число систем позиционирования, если у нас 0 в качестве заполнителя и конечное число других символов. Наша обычная десятичная система счисления имеет десять цифр «0, 1, 2, 3, 4, 5, 6, 7, 8, 9» и представляет число двести пятьдесят пять как «255». В двоичной системе счисления у нас есть только символы «0» и «1». Здесь двести пятьдесят пять представлены как «11111111». В шестнадцатеричной системе с 16 символами (0, 1, 2, 3, 4, 5, 6, 7, 8, 9, a, b, c, d, e, f) то же число можно записать как «ff», Отметим, что длина этих представлений значительно отличается. Используя это представление, математические операции могут быть стандартизированы независимо от порядка величин, с которыми мы имеем дело, т. Е. Возможности единого алгоритмического подхода к математическим функциям (сложение,вычитание, умножение и деление и т. д.) связано с такой системой положения.

Концепция позиционной системы счисления была привнесена в Европу персидским математиком аль-Хорезми (ок. 780 - ок. 850 г. н.э.). Его основная работа над числами (около 820 г. н.э.) была переведена на латынь как Liber Algebrae et Almucabola в двенадцатом веке, что дало нам, среди прочего, термин «алгебра». Наше слово «алгоритм» происходит от Алгоритми, латинской формы его имени. Позиционные системы счисления упростили коммерческие и научные расчеты.

В 1544 году Майкл Стифель представил концепцию показателя числа в Arithmetica integra (1544). Таким образом, 8 можно записать как (2 ^ 3), а 25 как (5 ^ 2). Понятие показателя степени сразу предлагает понятие логарифма как его обратной функции: (log_b b ^ a) = a). Стифель сравнил арифметическую последовательность:

[-3, -2, -1, 0, 1, 2, 3)

в котором член 1 имеет разность 1 с геометрической последовательностью:

(frac {1} {8}, / frac {1} {4}, / frac {1} {2}, 1, 2, 4, 8)

в котором термины имеют отношение 2. Показатели степени позволили ему переписать значения второй таблицы как:

[2 ^ {- 3}, 2 ^ {- 2}, 2 ^ {- 1}, 2 ^ 0, 2 ^ 1, 2 ^ 2, 2 ^ 3)

который объединяет две таблицы. Возможно, это была первая логарифмическая таблица. Более определенная и практическая теория логарифмов разработана Джоном Нейпиром (1550–1617) в его основной работе (Нейпир 1614). Он придумал термин логарифм (логос + арифметика: соотношение чисел). Как видно из совпадения арифметических и геометрических прогрессий, логарифмы уменьшают продукты до сумм:

(log_b (xy) = / log_b (x) + / log_b (y))

Они также сводят различия к различиям:

(log_b (x / y) = / log_b (x) - / log_b (y))

и полномочия к продуктам:

(log_b (x ^ p) = p / log_b (x))

После публикации логарифмических таблиц Бриггсом (1624) эта новая методика облегчения сложных вычислений быстро завоевала популярность.

3.4 Физика

Галилей (1623) уже предположил, что анализ таких явлений, как тепло и давление, может быть сведен к изучению движений элементарных частиц. В рамках эмпирической методологии это можно представить как вопрос о том, как сенсорный опыт вторичного качества тепла объекта или газа может быть сведен к движению частиц. Бернулли (Hydrodynamica, опубликованный в 1738 г.) был первым, кто разработал кинетическую теорию газов, в которой макроскопически наблюдаемые явления описываются в терминах микросостояний систем частиц, которые подчиняются законам ньютоновской механики, но это была довольно интеллектуальная попытка придумать с адекватной математической обработкой. Клаузиус (1850) сделал убедительный шаг, когда ввел понятие длины свободного пробега частицы между двумя столкновениями. Это открыло путь для статистической обработки Максвеллом, который сформулировал его распределение в 1857 году, которое было первым статистическим законом в физике. Окончательная формула, которая связывала все понятия вместе (и которая выгравирована на его надгробии, хотя фактическая формула принадлежит Планку) была разработана Больцманом:

[S = k / log W)

Он описывает энтропию S системы в терминах логарифма числа возможных микросостояний W, что согласуется с наблюдаемыми макроскопическими состояниями системы, где k - известная постоянная Больцмана. При всей своей простоте значение этой формулы для современной науки трудно переоценить. Выражение «(log W)» может, с точки зрения теории информации, интерпретироваться по-разному:

  • Как количество энтропии в системе.
  • В качестве длины числа необходимо подсчитать все возможные микросостояния, согласующиеся с макроскопическими наблюдениями.
  • В качестве длины оптимального индекса нам необходимо идентифицировать конкретный текущий неизвестный микросостояние системы, т. Е. Это мера нашего «недостатка информации».
  • В качестве меры для вероятности любого типичного конкретного микросостояния системы, согласующегося с макроскопическими наблюдениями.

Таким образом, он связывает аддитивную природу логарифма с обширными качествами энтропии, вероятности, типичности и информации и является фундаментальным шагом в использовании математики для анализа природы. Позднее Гиббс (1906) уточнил формулу:

[S = - / sum_i p_i / ln p_i,)

где (p_i) - вероятность того, что система находится в микросостоянии (i ^ { textrm {th}}). Эта формула была принята Шенноном (1948; Shannon & Weaver 1949) для характеристики коммуникационной энтропии системы сообщений. Хотя между математической трактовкой энтропии и информацией существует тесная связь, точная интерпретация этого факта с тех пор является источником противоречий (Harremoës & Topsøe 2008; Bais & Farmer 2008).

4. События в философии информации

Современные теории информации появились в середине двадцатого века в особом интеллектуальном климате, в котором расстояние между науками и частями академической философии было довольно велико. Некоторые философы проявили особую антинаучную позицию: Хайдеггер: «Die Wissenschaft denkt nicht. С другой стороны, философы из Wiener Kreis открыто дискредитировали традиционную философию как занимающуюся иллюзорными проблемами (Carnap 1928). Программа исследования логического позитивизма была строгой реконструкцией философии, основанной на сочетании эмпиризма и последних достижений в логике. Возможно, из-за этого интеллектуального климата ранние важные разработки в теории информации происходили в отрыве от основных философских размышлений. Ориентир - работа Дрецке в начале восьмидесятых (Dretske 1981). С начала века интерес к философии информации значительно вырос, в основном под влиянием работы Лучано Флориди по смысловой информации. Также быстрое теоретическое развитие квантовых вычислений и связанное с ним понятие квантовой информации оказали влияние на философские размышления.

4.1 Поппер: информация как степень фальсификации

Программа исследования логического позитивизма Wiener Kreis в первой половине двадцатого века оживила старый проект эмпиризма. Его целью было реконструировать научные знания на основе прямых наблюдений и логической связи между утверждениями об этих наблюдениях. Старая критика Канта в отношении эмпиризма была оживлена Куайном (1951). В рамках логического позитивизма индукция была недействительной, и причинно-следственная связь не могла быть установлена объективно. В «Logik der Forschung» (1934) Поппер формулирует свой известный критерий демаркации, и он явно позиционирует его как решение проблемы индукции Юма (Popper 1934 [1977: 42]). Научные теории, сформулированные как общие законы, никогда не могут быть окончательно проверены, но они могут быть подделаны только одним наблюдением. Это подразумевает, что теория «более» научна, если она богаче и дает больше возможностей для фальсификации:

Таким образом, можно сказать, что объем эмпирической информации, передаваемой теорией, или ее эмпирическое содержание увеличивается с увеличением степени фальсификации. (Поппер 1934 [1977: 113], выделено в оригинале)

Эта цитата в контексте исследовательской программы Поппера показывает, что стремление измерить объем эмпирической информации в научной теории, представленной в виде набора логических утверждений, уже было признано философской проблемой более чем за десять лет до того, как Шеннон сформулировал свою теорию информации., Поппер осознает тот факт, что эмпирическое содержание теории связано с ее фальсифицируемостью и что это, в свою очередь, связано с вероятностью утверждений в теории. Теории с более эмпирической информацией менее вероятны. Поппер отличает логическую вероятность от числовой вероятности («которая используется в теории игр и случайностей и в статистике»; Поппер 1934 [1977: 119]). В отрывке, который является программным для последующего развития понятия информации, он определяет понятие логической вероятности:

Логическая вероятность утверждения дополняет его фальсифицируемость: она увеличивается с уменьшением степени фальсифицируемости. Логическая вероятность 1 соответствует степени фальсифицируемости 0 и наоборот. (Поппер 1934 [1977: 119], выделено в оригинале)

Числовую вероятность можно интерпретировать как относящуюся к подпоследовательности (выбранной из логического отношения вероятностей), для которой можно определить систему измерения, на основе частотных оценок. (Поппер 1934 [1977: 119], выделено в оригинале)

Попперу никогда не удавалось сформулировать хорошую формальную теорию для измерения такого количества информации, хотя в более поздних работах он предполагает, что теория информации Шеннона может быть полезной (Поппер 1934 [1977], 404 [Приложение IX, от 1954]). Эти вопросы были позже разработаны в философии науки. Теория конформации изучает теорию индукции и то, как доказательства «поддерживают» определенную теорию (Huber 2007 [OIR]). Хотя работа Карнапа послужила основой для важных разработок в философии науки и философии информации, связь между этими двумя дисциплинами, похоже, утрачена. Там нет упоминания теории информации или какой-либо более фундаментальной работы в области философии информации в Kuipers (2007a), но две дисциплины, безусловно, имеют перекрывающиеся области. (См., Например,обсуждение так называемого парадокса черных воронов Kuipers (2007b) и Rathmanner & Hutter (2011).)

4.2 Шеннон: информация, определенная с точки зрения вероятности

В двух знаковых работах Шеннон (1948; Shannon & Weaver 1949) охарактеризовал коммуникационную энтропию системы сообщений A:

[H (P) = - / sum_ {i / in A} p_i / log_2 p_i)

Здесь (p_i) - вероятность сообщения i в A. Это точно формула энтропии Гибба в физике. Использование логарифмов base-2 гарантирует, что длина кода измеряется в битах (двоичные цифры). Легко видеть, что коммуникационная энтропия системы максимальна, когда все сообщения имеют равную вероятность и, следовательно, являются типичными.

Количество информации I в отдельном сообщении x определяется как:

[I (x) = - / log p_x)

Эта формула, которая может быть интерпретирована как обратная энтропия Больцмана, охватывает ряд наших основных интуиций об информации:

  • Сообщение x имеет определенную вероятность (p_x) между 0 и 1 появления.
  • Если (p_x = 1), то (I (x) = 0). Если мы уверены, что получим сообщение, оно буквально не содержит никаких «новостей». Чем ниже вероятность сообщения, тем больше информации оно содержит. Сообщение типа «Солнце взойдет завтра», по-видимому, содержит меньше информации, чем сообщение «Иисус был Цезарь» именно потому, что второе утверждение вряд ли будет защищено кем-либо (хотя его можно найти в Интернете).
  • Если два сообщения x и y не связаны, то (I (x / textrm {и} y) = I (x) + I (y)). Информация обширна. Объем информации в двух объединенных сообщениях равен сумме объема информации в отдельных сообщениях.

Информация как отрицательный логарифм вероятности является единственной математической функцией, которая точно удовлетворяет этим ограничениям (Cover & Thomas 2006). Шеннон предлагает теоретическую структуру, в которой двоичные строки могут интерпретироваться как слова в (языке программирования), содержащем определенное количество информации (см. 3.1 Языки). Выражение (- / log p_x) точно дает длину оптимального кода для сообщения x и, таким образом, формализует старую интуицию о том, что коды более эффективны, когда частые буквы получают более короткие представления (см. 3.2 Оптимальные коды). Логарифмы как редукция умножения к сложению (см. 3.3 Числа) являются естественным представлением обширных свойств систем и уже были использованы физиками в девятнадцатом веке (см. 3.4 Физика).

Одним из аспектов информации, который явно не определен Шенноном, является фактическое содержание сообщений, интерпретируемых как предложения. Таким образом, утверждения «Иисус был Цезарь» и «Луна сделана из зеленого сыра» могут нести одинаковое количество информации, тогда как их значение совершенно иное. Большая часть усилий в области философии информации была направлена на разработку более смысловых теорий информации (Bar-Hillel & Carnap 1953; Floridi 2002, 2003, 2011). Хотя предложения Шеннона поначалу были почти полностью проигнорированы философами, в последние десятилетия стало очевидно, что их влияние на философские проблемы велико. Дрецке (1981) был одним из первых, кто проанализировал философские последствия теории Шеннона,но точная связь между различными системами логики и теории информации все еще неясна (см. 6.6 Логическая и семантическая информация).

4.3. Соломонов, Колмогоров, Чайтин: информация как длина программы

Эта проблема связи набора утверждений с набором наблюдений и определения соответствующей вероятности была рассмотрена Карнапом (1945, 1950). Он различал две формы вероятности: вероятность (_ 1) или «степень подтверждения» (P_1 (h; e)) - это логическая связь между двумя предложениями, гипотезой h и предложением e, сообщающей серию наблюдений. Заявления такого типа либо аналитические, либо противоречивые. Вторая форма, Вероятность (_ 2) или «относительная частота», является статистической концепцией. По словам его ученика Соломонова (1997):

Модель вероятности Карнапа началась с длинной последовательности символов, которая была описанием всей вселенной. Благодаря своему собственному формальному лингвистическому анализу он смог назначить априорные вероятности любой возможной последовательности символов, которая могла бы представлять вселенную.

Метод присвоения вероятностей, используемый Карнапом, не был универсальным и сильно зависел от используемых систем кодирования. Общая теория индукции с использованием правила Байеса может быть развита только тогда, когда мы можем присвоить универсальную вероятность «любой возможной последовательности» символов. В работе 1960 года Соломонов (1960, 1964а, б) был первым, кто набросал план решения этой проблемы. Он сформулировал понятие того, что сейчас называется универсальным распределением вероятностей: рассмотрим набор всех возможных конечных строк как программ для универсальной машины Тьюринга U и определим вероятность строки x символов в терминах длины самой короткой программы. р, который выводит х на U.

Это понятие Алгоритмической Теории Информации было изобретено независимо несколько позже отдельно Колмогоровым (1965) и Чайтиным (1969). Левин (1974) разработал математическое выражение универсальной априорной вероятности как универсальной (т. Е. Максимальной) нижней полувычислимой полуизмерения M и показал, что отрицательный логарифм (M (x)) совпадает с колмогоровской сложностью x с точностью до аддитивного логарифмического члена. Фактическое определение меры сложности:

Сложность по Колмогорову Алгоритмическая сложность строки x - это длина (cal {l} (p)) наименьшей программы p, которая генерирует x при запуске на универсальной машине Тьюринга U, отмеченной как (U (p) = х):

[K (x): = / min_p {l (p), U (p) = x })

Алгоритмическая теория информации (известная как теория сложности Колмогорова) превратилась в богатую область исследований с широким спектром областей применения, многие из которых имеют философское значение (Li & Vitányi 1997):

  • Это дает нам общую теорию индукции. Использование правила Байеса позволяет современно переформулировать бритву Оккама с точки зрения минимальной длины описания (Rissanen 1978, 1989; Barron, Rissanen & Yu, 1998; Grünwald 2007) и минимальной длины сообщения (Wallace 2005). Обратите внимание, что Домингос (1998) выступил против общей обоснованности этих принципов.
  • Это позволяет нам формулировать вероятности и информационное наполнение для отдельных объектов. Даже отдельные натуральные числа.
  • Он закладывает основы теории обучения как сжатия данных (Adriaans 2007).
  • Это дает определение случайности строки в терминах несжимаемости. Это само по себе привело к совершенно новой области исследований (Niess 2009; Downey & Hirschfeld 2010).
  • Это позволяет нам сформулировать объективную априорную меру предсказательной ценности теории с точки зрения ее дефицита случайности: то есть лучшая теория - это самая короткая теория, которая делает данные случайными условными для теории. (Верещагин и Витаньи 2004).

Есть и минусы:

  • Алгоритмическая сложность неисчислима, хотя во многих практических случаях ее можно аппроксимировать, а коммерческие программы сжатия в некоторых случаях приближаются к теоретическому оптимуму (Cilibrasi & Vitányi 2005).
  • Алгоритмическая сложность - это асимптотическая мера (т. Е. Она дает правильное значение с точностью до константы). В некоторых случаях значение этой константы запрещено для использования в практических целях.
  • Хотя самая короткая теория всегда является лучшей с точки зрения дефицита случайности, инкрементальное сжатие alt="sep man icon" /> Как процитировать эту запись.

    значок сеп человек
    значок сеп человек

    Предварительный просмотр PDF-версию этой записи в обществе друзей SEP.

    значок Inpho
    значок Inpho

    Посмотрите эту тему в Проекте интернет-философии онтологии (InPhO).

    Фил документы
    Фил документы

    Расширенная библиография для этой записи в PhilPapers со ссылками на ее базу данных.

    Другие интернет-ресурсы

    • Ааронсон, Скотт, 2006, Причины верить, Оптимизированный Штетлом пост в блоге, 4 сентября 2006 года.
    • Adriaans, Pieter W., 2016, «Общая теория информации и вычислений», неопубликованная рукопись, ноябрь 2016, arXiv: 1611.07829.
    • Бекенштейн, Джейкоб Д., 1994, «Понимаем ли мы энтропию черной дыры?», Пленарное заседание на седьмом собрании Марселя Гроссмана в Стэнфордском университете., ArXiv: gr-qc / 9409015.
    • Черчилль, Алекс, 2012, Магия: сбор завершен.
    • Кук, Стивен, 2000, проблема «P против NP», Математический институт Клея; Проблема премии тысячелетия.
    • Huber, Franz, 2007, Подтверждение и Индукция, запись в Интернет-энциклопедии философии.
    • Саджад, Х. Ризви, 2006, «Авиценна / Ибн Сина», запись в Интернет-энциклопедии философии.
    • Goodman, L. and Weisstein, EW, 2019, «Гипотеза Римана», From MathWorld - веб-ресурс Wolfram.
    • Вычислимость. Что будет означать опровержение тезиса Черча-Тьюринга ?, обсуждение теоретической информатики StackExchange.
    • Теорема о простых числах, Британская энциклопедия, 20 декабря 2010 г.
    • Аппаратный генератор случайных чисел, запись в Википедии, ноябрь 2018 г.

Рекомендуем: