Главная / Статьи / Новая теория информации

Новая теория информации


инженер Мареев

Прежде, чем приступить к рассказу о конструкции СУБД ЕМЕ-ДБ, надо, хотя бы в нескольких словах рассказать о философии и теории, положенной в основу этого проекта. А также о сверхзадаче, которую фирма ЕМЕ ставит перед собой, развивая его.

СКОЛЬКО ИНФОРМАЦИИ В "КАЛЯМБУРЕ МАЛЯМБУРЕ"?

Кто хорошо знает теорию информации? Подсчитайте-ка, какова информационная энтропия и емкость сообщения "калямбур малямбур". Посчитали? А вот и неправильно! Нет там никакой информации. Чистый ноль. А теперь, попробуем вычислить информационную емкость: "Я Вам пишу, чего же более…" Школа, учительница по литературе, все ребята из класса, первое свидание, тройка за сочинение… Каждая картинка с хорошим разрешением по сотне гигабайт минимум, плюс динамика, плюс эмоции…

Журналистов ругают за неологизмы. Послушаем сообщение: "От N-ского округа баллотируется г. Иванов, большой авторитет в городе N". "Авторитет, в каком это смысле?" – удивленно вскидывает брови слушатель. Хитрые журналисты сначала вводят в обращение новые словечки, а потом вгоняют в тонюсенький информационный канал столько информации, что хватит на толстый роман. Впрочем, об этом говорил еще Антон Павлович.

Теперь ясно. При передаче "информации" по каналам связи мы передаем лишь условные коды, которые каждый из нас в голове разворачивает в пространные (более или менее) картины. Следовательно, каждый тоненький канал связи лишь слабая имитация информационных рек "от каждого к каждому", которые нам с Вами требуются для того, чтобы "условиться" (коды-то условные) всем вместе, что именно каждое слово означает.

Предположим (хотя это и не верно), что естественный язык, составленный из слов и предложений самодостаточен. То есть, содержит в себе всю информацию, которую он содержит в себе (можно было бы сказать "которую он может выразить", но это то же самое плюс "дурной вкус"). В этом случае, слова и выражения объясняются другими словами и выражениями. Будем обозначать соответствующие связи стрелками (в голове у нас, наверное, хранится много таких ассоциирующих стрелок). Например:

От некоторых слов можно избавиться. Будем заменять одни слова другими, каждое слово в структуре языка будем заменять набором слов и выражений, его объясняющих. Но мы сказали, что язык самодостаточен, так что, в конце концов у нас не останется ни одного слова, а лишь одни стрелки. Внимание! Никаких "атомарных", необъясняемых слов в самодостаточном языке нет. Все слова имеют объяснение, пусть даже за счет тавтологий (будем называть тавтологии "завихрениями"). Ассоциирующая стрелка, которая ничего ни с чем не ассоциирует, никому не нужна, ее можно было бы выбросить. Но наши стрелки ассоциируют "стрелочные завихрения" друг с другом. Слова ушли, а структура языка, его квинтэссенция, осталась. Мы можем заменить одни слова другими, мы можем закодировать их двоичными числами. Язык при этом все равно сохранится. (Или нет?)

Естественный язык не самодостаточен (впрочем, как и любой другой, в частности и математический, в соответствии со знаменитой теоремой Гёделя 1931 года о неполноте любой неэлементарной логической аксиоматической системы). Естественный язык привязан к тому многогранному образу внешнего материального мира, который нам доставляют наши органы чувств. Поэтому систему внутренних стрелок данного языка надо дополнить стрелками внешними: от языковых "стрелочных завихрений" к образным картинкам в наших мозгах.

Но что представляют собой эти "образные картинки в мозгах"? Скорее всего, некоторые однообразные значения нервных сигналов, сгруппированные в сложные, взаимосогласованные структуры. Сами формы и физические значения нервных сигналов не важны. Существенны лишь стрелочки, объединяющие эти сигналы в картинки. Опять, казалось бы, мы можем заменить одни сигналы другими, закодировать их двоичными числами или отбросить вообще. Важны лишь стрелки.

Что же такое информация? Причудливая бесформенная и безграничная игра стрелок? Нет, нет и нет! С чего мы начали наши рассуждения? Мы были недовольны "поверхностностью" теории информации, которая за деревьями не видит леса, вычисляя энтропию букв и слов, отбрасывает их смысл. Сконцентрировавшись на смысле, который мы увидели в ассоциирующих стрелках, мы отбросили слова (термины). Но во всякой структуре отношений, объекты и отношения можно "выворачивать на изнанку". Заменять одно другим. Наши стрелочные завихрения мы можем закодировать некоторым способом (например, при помощи картинок, или специального алфавита). Можно вычислить информационную энтропию такого кода. Она опять будет мизерной, смысл потерялся, мы вернулись к тому, от чего ушли.

КАК УСТРОЕНА МАТЕМАТИКА

Увлекшись в конце прошлого (девятнадцатого) столетия математической логикой, математики с удивлением обнаружили, что их ремесло (математика в целом), вроде бы, совершенно бессмысленное дело. Математик формулирует аксиомы, и, назвав их термами, дает каждой аксиоме имя (например, a , b , g ). Далее он формулирует правила логического вывода, при помощи которых из одних термов формирует другие. Методом простого "прилепливания" одних термов к другим. Термы можно "завихрять" (то есть, смешивать различные уровни и к сложным термам опять прилеплять простые). При желании каждому терму можно приписать или вычислить условное значение истинности (такие термы называются предикатами). Однако, даже святая святых – ИСТИННОСТЬ математического высказывания, оказалась в этом построении необязательным, почти лишним атрибутом! Получилось, что математикой может заниматься любой дебил или даже компьютер.

Чтобы не расстраиваться (а может, чтобы не остаться без работы), математики решили не зацикливаться на этом удручающем факте. Более того, если поговорить с математиками или почитать философские размышления тех из них, кого мы считаем великими, то мы поймем, что, скорее всего, математики не придумывают, а открывают объективно существующие (в природе?) закономерности.

ДРУГОЙ ПРИМЕРБ

Возьмем последний пример и перейдем к обобщениям. Рассмотрим три принципиальные схемы:


Вентиль на КМОП-транзисторах


Схема на логических элементах


Микропроцессорная схема

Рис. 1 Принципиальные схемы различных уровней абстракции

Каждая из этих схем содержит определенную информацию. Чему равно количество этой информации? А.Н. Колмогоров в своей классической, теперь уже, работе (1965 год, "Три подхода к определению понятия "количество информации", Проблемы передачи информации, т.1, вып. 1) обобщил Шеноновские идеи о вероятностном подходе к передаваемой по каналам связи информации и предложил еще два варианта оценки информации, "содержащейся внутри объекта" (и/или характеризующей его сложность). Это комбинаторный и алгоритмический подходы. Все три подхода полностью отбрасывают категорию "смысл информации". Если только в качестве испытательного алгоритма в алгоритмическом подходе не взять алгоритм работы человеческого мозга. Для математики это (пока?) неприемлемо.

Обращаясь к нашей интуиции, мы хорошо понимаем, что каждая из приведенных на рисунке 1 принципиальных схем содержит столько информации, сколько подготовленный специалист может для себя извлечь, глядя на схему. Специалист схему "читает", это возможно при соблюдении следующих условий:

Схема не слишком сложна
Все обозначения специалисту известны

Это означает, что, перерисовав последнюю схему в терминах логических элементов, мы увеличим чертеж в десятки тысяч раз и уменьшим(!) содержащуюся в схеме информацию почти до нуля. Каждая из микросхем микропроцессорного комплекта содержит десятки тысяч логических элементов и миллионы транзисторов. Только в "свернутом" состоянии схема легко читается и пригодна для работы за счет точно описанных сигнальных и корпусных интерфейсов.

ФОРМУЛИРОВКА ТЕОРИИ ИНФОРМАЦИИ

Приведенных трех примеров (естественный язык, математика и принципиальные схемы) вполне достаточно для формулировки основных принципов нашей теории информации.

Постулат 1 (общефилософский). Информация представляет собой основополагающее понятие, не определяемое другими понятиями. Материальный и нематериальный мир соткан только из информации. Весь мир в совокупности представляет собой единую информационную систему, которая неоднородна и может быть структурирована в терминах так называемых информационных структур.

Постулат 2 (конструктивный). Всякая информационная структура обладает способностью размножаться, то есть копировать свою конструкцию в сравнительно большом количестве экземпляров, создавая при этом пространство для их существования. Такие экземпляры становятся "носителями", пригодными для конструирования информационных структур более высокого уровня иерархии сложности. С другой стороны, всякая информационная структура сконструирована из носителей, которые представляют собой информационные структуры более низкого уровня иерархии.

Информационные структуры характеризуются семью признаками. Эти же признаки в качестве управляющих принципов участвуют в процессе синтеза информации (то есть, создания информационных структур):

Принцип 1. Фиксация носителей.

Принцип 2. Вытеснение конкурирующих типов.

Принцип 3. Скольжение, внутренние степени свободы.

Принцип 4. Пространство, порождение несущего пространства.

Принцип 5. Самоподобие и размножение носителей.

Принцип 6. Тождественность носителей.

Принцип 7. Завихрение причинно-следственных связей

Фиксация – это процесс выделения одного терма в качестве структурообразующего. Обозначение явления или предмета словом, объединение предметов в поименованную группу, фиксация некоторой конструкции или функции в качестве библиотечного элемента, разработка технического или технологического стандарта – все это принципы фиксации термов.

Вытеснение конкурирующих типов– это явление, продолжающее процесс фиксации. Обычно при синтезе информационной структуры возникает несколько конкурирующих центров спонтанного нарушения симметрии хаоса. В результате действия принципа 5 (завихрение), в информационной структуре остается сравнительно небольшое количество типов носителей, которые в совокупности покрывают все многообразие свойств носителей данной информационной структуры. Распределение всего многообразия свойств по конкретным типам бывает случайным (смысловые гнезда слов в разных языках различны, например). Однако степень этой случайности всегда ограничена, так как свойства типов диктуются потребностями структур более высокого уровня. Не обязательно все типы конкурируют между собой. Вообще говоря, типы подразделяются на классы вытесняющих и невытесняющих друг друга пар типов ("бозонные и фермионные" статистики типов).

Скольжение означает требование обладать некоторой универсальностью для каждого зафиксированного типа носителей. Слово участвует в тысячах фраз и образов, библиотечный логический элемент позволяет построить тысячи различных схем, человек работает на тысячах разных работ, атом углерода порождает миллионы различных веществ. Совокупность всех внутренних степеней свободы информационной структуры составляет ее "внутреннее устройство".

Пространство. Если скольжение – признак наличия внутренней степени свободы носителе в информационной структуре, то способность информационной структуры взаимодействовать с "внешним миров" задается пространством, в котором информационная структура может "скользить" как цельная конструкция, выступая уже потенциальным носителем структур более высокого уровня. Так, например, слова, выражения, образы – суть термы (носители) языка. Возможности слов участвовать в различных контекстах – это скольжение. Распространение же языка как цельной конструкции среди многих людей есть пространство. Аналогично, разные способы применения элементов библиотеки стандартных модулей – скольжение, совокупность всех специалистов, фирм, стран, применяющих данную библиотеку – пространство. В физике, участие атомов вещества в различных соединениях – скольжение, пространство-время, в котором существуют вещества и тела – пространство.

Самоподобие – чудесное свойство носителей размножаться. Этот эффект определяет динамику развития как данной информационной структуры так и синтез новых структур (то есть развитие вселенной). В простейших структурах размножение достигается простым копированием конструкции. Например, когда мы повторяем друг за другом одно и то же слово мы достигаем подобия благодаря способности конструировать слово из одних и тех же звуков. Различие свойств подобных носителей задается различными применениями данного носителя в структурах более высокого уровня в процессе скольжения.

Тождественность – это довольно условный принцип. Он находится в двойственной связи с принципом самоподобия. Для того, чтобы можно было сказать, что произошло размножение носителя, должна существовать процедура не просто синтеза новых носителей, а процедура синтеза тождественных по некоторым свойствам носителей. Но кто может определить эти свойства и проверить их выполнение? Только способность двух носителей участвовать в одной и той же информационной структуре более высокого уровня. Одно и то же слово может иметь тождественный или различный смысл, в зависимости от того, как это слово применяется в различных структурах более высокого уровня в процессе скольжения.

Завихрение причинно-следственных связей, этот эффект имеет ключевое значение в синтезе информационных структур. По сути, этот принцип является той движущей "живительной" силой, которая заставляет вселенную самоорганизовываться. Все информационные структуры возникают как эффект положительной обратной связи, которая "включается" между различными уровнями иерархии структур. Для того, чтобы слово стало частью языка, оно должно понравиться людям, но для того, чтобы слово понравилось, оно должно стать частью языка. Носители новых типов возникают в результате спонтанного нарушения симметрии носителей, и в случае эффективности конструкции, по отношению к структурам более высокого уровня, происходит фиксация данного типа носителя. Получается, что синтез нового типа носителей возникает в результате накопления свойств среди большого числа "почти" тождественных носителей. Завихрения причинно следственных связей можно отождествлять с собственно информационными структурами и считать, что вселенная соткана из таких вихрей (так примерно формулируется гипотеза торсионных полей в современной физике). К принципу завихрения причинно-следственных связей мы еще неоднократно будем возвращаться.

Наиболее подходящей моделью в современной математике для новой теории информации, по-видимому, следует считать универсальную теорию категорий и более содержательный частный ее случай – теорию топосов. По определению, категорией называется конструкция, содержащая объекты и морфизмы (стрелки). Каждая пара объектов связывается набором стрелок, а последовательно заданные стрелки задают суммирующую стрелку – композицию. Композиции стрелок должны обладать ассоциативным свойством, и должна существовать единичная, "ничего не делающая" система стрелок. Между категориями действуют сложные системы связей – функторы (в некотором смысле "метастрелки").

Если рассматривать информационные структуры как категории, то удается формальным образом задать многие свойства и основные принципы теории. В частности, взаимодействие информационных структур различных уровней задается функторными связями, процесс синтеза информации моделируется введением новой категории, оперирующей в многообразии категорий ранее определенного типа. Анализ взаимодействия типов проводится на расслоенных структурах категорий, когда из простых категорий строится сложная как прямое произведение составляющих.

Наиболее важные принципы для описания свойств информационных структур скольжение и пространство формулируются в терминах теории категорий как отношения гомологий и когомологий (соответственно) в теории топосов.

Эффективность и ограничения применения теории категорий в теории информации мы будем обсуждать ниже.

ПРИМЕРЫ ИНФОРМАЦИОННЫХ СТРУКТУР

Нет ни одного явления или предмета в нашей вселенной, находящегося вне своей информационной структуры. Элементарные частицы, атомы, молекулы, вещества, планеты, галактики.

Все волны, какие только известны в физике, социологии, химии, где угодно: волны элементарных частиц, электромагнитные волны, волны на поверхностях жидкостей, звуковые, "пробковые" на автомобильных дорогах.

Элементарные живые организмы (одноклеточные) и сложные живые конструкции. Виды животных, экологические слои. Люди, все социологические явления: фирмы, семьи, банды, города, государства…

Все искусства, поп звезды, феномен красоты и любовь, религии и секты, учения и науки, теории и знания.

Промышленные стандарты, технологии и конструкции всех вещей, которыми мы пользуемся.

ПРИНЦИП СООТВЕТСТВИЯ

Всякая новая теория обычно включает в себя классическую. В нашем случае, классическая теория информации Шенона-Колмогорова позволяет получить количественные оценки энтропии отдельной информационной категории, зафиксированной на определенном этапе развития.

Возьмем наш пример с принципиальными электрическими схемами. Конструкцию электронного изделия можно рассматривать как категорию, составленную из библиотечных электронных компонентов (носителей категории) и всех возможных способах их электрического соединения (стрелки или морфизмы категории). Теперь мы можем вычислить энтропию всей библиотеки, как число всех возможных комбинаций элементов и их соединений, а также относительную информацию, содержащуюся в конкретной схеме или классе схем, по отношению к библиотеке в целом:

I(c,L) = H(L) – Нc(L),

где I – информация в данной схеме c по библиотеке L, H – энтропия (полная или условная). Для точно заданной схемы условная энтропия равна нулю, так что информация становится равна энтропии библиотеки. Для того, чтобы количество информации в схеме стало пропорциональным числу задействованных элементов, следует из полной энтропии вычесть условную энтропию, связанную с некоторым заданным числом элементов схемы.

Очевидно, что чем крупнее библиотечные блоки и чем более ограничены способы их соединения, тем меньше информации может содержать каждая конкретная принципиальная схема. Самая последняя (высокоуровневая) схема содержит лишь один блок из которого выходит один провод с вилкой для подключения устройства к сети питания. Почти ноль энтропии и почти ноль информации (логарифм числа возможных типов устройств, например).

Важнейшим моментом здесь является то, что мы назвали "категория, зафиксированная на определенном этапе развития". Представьте себе, что вам необходимо передать кодировку принципиальной схемы из одного места в другое. Для этого потребуется переслать примерно I(c,L) бит данных, но только при условии, что получатель имеет идентичную с отправителем библиотеку L, или более полную библиотеку, или более полную библиотеку Lt. То же самое мы видели и в случае с естественным языком. Обмен информацией возможен лишь в пределах пространства, составленного из всех носителей (держателей) данного языка (библиотеки). Если отправитель информации ввел в библиотеку новый элемент или новое слово в обращение, то получатель не сможет данную информацию даже принять (воспринять, понять). Так возникает понятие "светового" (причинно-следственного) информационного конуса (в проектах – это "совместимость вверх", в базах данных – "гребенчатая схема консолидации данных").

"Классический" подход к информации позволяет оценить объемы передаваемых по сетям телекоммуникации данных, и объемы однородных баз данных. Синтез информации, как мы уже говорили, есть процесс формирования категорий (языков, теорий, библиотек) и пространств их распространения. Существует оптимальное количество универсальных языков или библиотек, которые должны быть синтезированы для некоторого предмета или проекта, так чтобы суммарный объем данных и время для их восприятия или передачи были бы минимальны. Например, изображения можно хранить в растровом формате, можно в векторном, а можно в виде набора "осмысленных" графических объектов (как это делается в графических САПР и ГИС). Синтез универсальных параметризуемых объектов требует применения специальных усилий, которые оборачиваются экономией в объеме хранимых и передаваемых данных. Особенно уменьшается объем передаваемых данных, в случае если совместимые библиотеки объектов имеются на обоих концах системы телекоммуникаций. Классический подход к измерению количества информации не позволяет производить формальных анализ подобных конструкций в целом, а только на отдельных уровнях.

ИНФОРМАЦИОННЫЕ СТРУКТУРЫ И ОПТИМАЛЬНЫЕ БЛОКИБ

Теперь мы хорошо понимаем, в чем была ошибка математиков. Они ошибочно решили, что накопление математической информации заключается в линейном процессе увеличения числа выписанных на бумаге (или в памяти компьютера) термов. Мы же видели, что увеличение числа логических связей между термами больше, чем человек может "понять", есть уменьшение количества информации (по отношению к некоторой оптимальной информационной структуре). Настоящий же синтез информации в математике заключается в нахождении, поименовании, публикации и широком применении термов, пригодных к поименованию, публикации и широкому применению (то есть, те же принципы: фиксация, вытеснение, скольжение, завихрение). При этом обязательно соблюдается некоторое оптимальное соотношение структурной сложности категорий, то есть соотношение числа термов и логических связей между ними (числа объектов и числа стрелок).

То же самое касается и языка. Синтез информации в языке заключается в нахождении таких слов, выражений и образов, которые бы всем понравились в силу своего приятного звучания, понятности и универсальности (все те же принципы). Есть универсальные принципы, реализованные во всех развитых языках, которые, по-видимому, можно считать объективными закономерностями природы. Есть в математике большое количество теорий, которые по своей стройности и универсальности без сомнения также могут быть причислены к объективным закономерностям природы.

Программисты часто думают, что накопление программных текстов есть накопление информации. Но это совершенно не так. Сложное неструктурированное программное изделие непригодно к развитию и сопровождению и ВСЕГДА(!) очень быстро выбрасывается. Тот факт, что редкая программа переживает десятилетний период развития (не просто жизни, а именно развития), указывает на практически полное отсутствие информации в программных продуктах нашей эпохи. При этом не следует обольщаться по поводу многолетнего периода жизни торговых марок. Зачастую, при переходе от версии к версии большое количество программ выбрасывается и заменяется на новые.

Синтез информации в программировании заключается в разработке таких модулей, которые могут быть названы "универсальными модулями".

Универсальным модулем будем называть такую конструкцию, которая обладает следующими свойствами:
Конструкция модуля простая, то есть легко читается специалистом
Большинство специалистов знают обозначение (уникальное имя) и свойства данного универсального модуля
Модуль собран только из универсальных модулей

Понятие универсального модуля применимо во всех отраслях инженерной деятельности. Вентили (например, на КМОП-транзисторах), стандартные логические элементы, функциональные комплекты больших интегральных микросхем (например, микропроцессорные) – эти конструкции, как правило, могут быть названы универсальными модулями. В программном обеспечении этого сейчас практически нет и усилия теоретиков и практиков направлены на создание и распространение таких стандартов, которые позволили бы обеспечить более высокий уровень качества, надежности и открытости систем. В ближайшие годы фирма ЕМЕ планирует выступить с инициативой открытых исходных текстов в различных прикладных областях систем автоматизации.

По всей видимости, синтез универсальных модулей возможен не путем "произвольного придумывания из головы", а путем открытия объективно существующих закономерностей. Этот процесс возможен только путем коллективного научного поиска, который, в свою очередь, требует собственного информационного обеспечения. А именно, синтеза общепринятого языка научно-технического общения и широкой публикации и поощрения достижений. Именно для этого требуется разработка (или поиск?) эффективной технологии открытых текстов. Достижения фирмы ЕМЕ в области "конвейеризации" процессов производства ПО, о которых мы докладываем в печати, лишь первые шаги на этом пути (см., например, 36 номер, статья "И все-таки это искусство!").

ТЕОРИЯ ИНФОРМАЦИОННЫХ СТРУКТУР И ВЕТХИЙ ЗАВЕТ

Мы говорили о формулировке основных принципов теории информации в терминах математической теории категорий. Здесь мы сталкиваемся с фундаментальной проблемой естествознания. Понятие информации имеет настолько основополагающий характер, что должно быть положено в основу физики и математики, а не наоборот. Судите сами, в предыдущем абзаце мы, опираясь на понятие информации, легко "разъяснили" суть математики. Это означает, что нельзя теорию информации "просто" взять и сформулировать математически. Правильнее всего было бы начать синтезировать фундаментальные категории информации, физики и математики одновременно. Это можно сделать, наверное, следующим образом.

Вначале была абсолютная пустота, тождественная абсолютному хаосу, который тождественен абсолютной симметрии. В первом случае информацию отсутствует по определению, во втором и третьем случае можно показать невозможность фиксации какой-либо информации.

Возникло "нечто" отличное от всего остального. Это нечто не обладает другими свойствами, кроме собственного существования. Можно сказать, что "оно" – точка в большой пустоте, можно сказать, что вся вселенная сосредоточена в нем. "Оно" может быть, может не быть – это единственное его свойство. Информация, которую оно несет в себе – 1 бит ("есть" или "нет"). "Нечто" противопоставлено пустоте, это как абстрактные "свет и тьма" в ветхом завете, или инь и ян в древнекитайском даосизме. Назовем стартовый бит информации термином причинон (если мы это не сделаем, американцы введут англоязычный термин).

Свойства вселенной, состоящей из одного причинона не изменяются до тех пор, пока не появится еще один причинон, затем еще один и так далее. Таким образом, до тех пор, пока в стартовой информационной структуре не добавится очередной такт-причинон, состояние вселенной не изменяется. Она находится в застывшем состоянии, как кинофильм между сменой кадров или компьютер между тактами задающего генератора. Следование причинонов есть кванты абсолютного времени, а вся вселенная представляет собой информационные сгустки этого времени.

Груда причинонов не обладает никакой метрикой, сами причиноны не обладают свойствами (свойства есть информация, а другой информации, кроме потока причинонов еще нет) и все тождественны друг другу. Расстояние от каждого причинона до любого другого – ноль, точнее сказать никакой метрики не может быть введено в причинонную вселенную.

Математика знает модель, подходящую для причинонов – это полный симплициальный комплекс (обычно еще добавляют "абстрактный"). Причиноны в этом комплексе – вершины, текущее число причинонов минус 1 задает размерность комплекса:

В полном симплициальном комплексе каждая вершина соединена с каждой другой ребром. Вершина – это нульмерная грань, ребро – одномерная. Каждые три вершины дают двумерную грань, каждые четыре – трехмерную и так далее.

Симплициальная вселенная на каждом новом причинонном такте увеличивает свою размерность на 1. Это дает модель причинно-следственных отношений: каждая вершина превращается в ребро, каждая двумерная грань (треугольник) превращается в трехмерную грань (тетраэдр). Модель очень симметрична. Каждые k вершин в n-мерной вселенной составляют k-мерную грань, совокупность всех k-мерных граней составляет k-мерную границу, каждая грань, рассматриваемая в качестве субэлементарного события, на следующем такте породит k+1 мерный симплекс-следствие.

По мере накопления тождественных причинонов в причинонной вселенной возникают более сложные информационные структуры. Первой такой структурой являются группы причинонов. Все причиноны одинаковые, однако, взяв грань из k причинонов в качестве (k-1)-мерного симплекса, мы можем сказать, что все его (k-2)-мерные грани меньше или принадлежат исходному симплексу. Так вводится отношение (частичного) порядка. Строим решетку граней произвольного причинонного симплекса. В двоичной кодировке решетки применяются следующие соглашения:

  • Длина двоичного слова соответствует текущей размерности причинонной вселенной.
  • Разряды можно переставлять произвольным образом (но только во всех словах вместе, целыми столбцами).
  • 1 означает что соответствующий данному разряду причинон включается в рассматриваемую грань, а 0 – не включается.
  • Число единиц в двоичном слове задает размерность грани, закодированной данным двоичным словом.
  • Слова внутри блоков, отделенных горизонтальными линиями можно переставлять местами.
  • Свойство принадлежности задается единицами: если симплекс a содержит все единицы симплекса b, то b I a (b есть грань a).

Начиная строить математику мы получаем: данная информационная структура уже представляет собой нетривиальный топос (категорию). В нем мы имеем: все подмножества конечного множества, булеву структуру и булеву алгебру причинонных слов, дистрибутивную конечную решетку. Кроме того, мы говорили, что все причиноны тождественны, это означает, что любую пару можно поменять местами, а любую группу "повернуть" циклической перестановкой. Так мы получаем пространство, образованное перестановочной группой, мы видим, что она образована прямой суммой циклических групп ранга 1,2,3,4… Получаем в качестве исходного данного "вывернутую наизнанку" теорему Оре, о том что произвольная группа имеет дистрибутивную структуру подгрупп, только в случае, если является объединением возрастающей последовательности циклических подгрупп.

Следующий уровень информационных структур связан с введением категорий комбинаторной топологии. А именно, понятий цепи, границы, коцепи, кограницы и соответствующих гомоморфизмов.

Мы естественным образом получаем натуральные числа, связанные булевой структурой. Отсюда прямой путь к арифметике, действительным, комплексным числам и телу кватернионов.

Самое главное достижение такой математики – снятие вопроса о конструктивистском и классическом подходе к бесконечности. Структура всегда конечна, все категории и теории – конструктивны. Но, благодаря тому, что процесс добавления причинонных тактов непрерывен и является "самым быстрым конструктивным процессом", мы имеем переделы для всех последовательностей и вводим понятие бесконечности, так как для любой модели всегда существует последовательность более низкого уровня иерархии, которая заведомо перебирается быстрее, чем это может сделать любой алгоритм заданного уровня иерархии термов.

Для физики мы получаем субэлементарную тонкую структуру вакуума (причинонный симплициальный комплекс), получаем космологическое начало вселенной без гипотезы "великого взрыва". Если мы будем рассматривать два типа покрытия причинонного комплекса гранями – с "вытеснением" и "без вытеснения" (то есть, соответственно, разрешать одному и тому же причинону или не разрешать участвовать одновременно в различных гранях) мы получаем модель для кварков бозонного и фермионного типа соответственно. Дополнительные (сопряженные) элементы дистрибутивной структуры дают нам дополнительность свойств частиц-античастиц, а групповые свойства причинонной структуры дают наглядную интерпретацию групповых квантовомеханических представлений элементарных частиц.

Комбинаторное распределения причинонных слов-граней по числу измерений объясняют характер распределения Гаусса и закон больших чисел для теории вероятностей.

Довольно быстро мы "добираемся" и до любимого всеми нами пространства-времени Минковского-Эйнштейна. Только в нашем случае вместо четырехмерного псевдоевклидова пространства индекса 1 (то есть, с одной мнимой временной осью и тремя действительными пространственными) мы получаем тело кватернионов с одной действительной временной и тремя гиперкомплексными мнимыми пространственными осями. "Жить" в таком пространстве можно ничуть не хуже (с небольшими поправками к специальной теории относительности), зато благодаря теореме Фробениуса-Понтрягина о конечном расширении поля действительных чисел, которое не может выйти за пределы комплексного или кватернионного полей, мы получаем чудесное объяснение трехмерности нашего прекрасного мира.

Каждый причинон присутствует во всех точках нашей вселенной одновременно (также как время присутствует во всех точках вселенной). Это дает наглядное объяснение, почему элементарные частицы как бы "размазаны" по всему пространству сразу. Кроме того, добавление одного причинона к вселенной в целом, означает его "втискивание" "между" любыми существующими причинонами в то же время. Это дает нам приблизительное разъяснение почему вселенная расширяется, а из постоянной Хаббла для нынешней скорости расширения вселенной можно оценить и число причинонов, накопленных к настоящему времени. В качестве научно-популярной оценки можно назвать число 10120 штук. Такое большое число "объясняет" текущую стабильность вселенной (добавление одного причинона к такой груде практически ничего не меняет, только время делает крошечный шаг вперед). Естественно, что темпы роста вселенной на стартовом этапе накопления информации можно считать взрывными.

Самым ярким физическим проявлением информационного характера вселенной являются два фундаментальных факта: предельная скорость передачи информации в пространстве со скоростью света и соотношение неопределенностей Гейзенберга, не позволяющее получить бесконечное количество информации о физической системе.

По отношению к собственно теории информации мы получаем энтропию и количество информации первой (булевой) информационной структуры (нулевой структурой следует считать сами голимые причиноны). Для каждой k-мерной грани причинонного симплекса число причинонных слов равно 2k. Отсюда получаем логарифмические формулы для вычисления количества информации: число нульмерных граней есть количество информации, а число причинонных слов – значение соответствующей энтропии. Если вместо нульмерных граней брать грани большей размерности, то есть сложные события считать за одно, то получаем соответствующие понятия относительной энтропии и количества информации.

Таким образом, начав развитие информационных структур с одного бита, мы получаем возможность строить физическую, математическую и информационную части теории параллельно, избежав проблем с тавтологиями. Соответствующую теорию следует назвать "теория информационных структур". Естественно, что привычные математические теории в этом случае как бы "выворачиваются на изнанку", а объем работы, которую надо проделать, чтобы "угадать" путь развития вселенной от одного бита до галактик, homo sapiens и международных корпораций – очень большой. Все дело в том, что принцип вытеснения означает, что спонтанный синтез природных информационных конструкций не всегда носит единственный объективный характер. По-видимому, мы должны допустить, что вселенная принимаясь синтезировать каждый новый уровень иерархии информации, из многих возможных вариантов выбирает один. Это означает, что может существовать бесконечно много вариантов моделей вселенной, из которых "наш" лишь один из возможных.

В любом случае, на сегодняшний день мы получаем неплохое интуитивное ощущение правильности сформулированных принципов синтеза информации.

ДВИЖЕНИЕ ЗА ОСВОБОЖДЕНИЕ МАТЕМАТИКИ

Внутри современной математики необходимость построения новых метаматематических основ осознана и обсуждается на протяжении последних двадцати пяти лет. Английским математиком Дж. Конвеем в 1976 году основано "движение за освобождение математики" от "темных аксиом теории множеств". Теоретико-категорное мышление не опирается на теорию множеств, наоборот, категория множеств представляет собой лишь частный случай категорий. Но в этом случае, для того, чтобы быть последовательными, мы не должны применять неясные понятия "объект" и "стрелка" в определении категории, если только не скажем, что и то и другое также являются в свою очередь категориями. Получается рекурсивное "завихрение", которое нигде не начинается и никогда не сможет закончиться. Какую бы структуру мы не взяли, мы обнаруживаем, что ее составляющие части всегда состоят из более мелких составляющих частей, а сама структура используется для построения более глобальных конструкций. Структура связей "вглубь" называется в математике гомология, структура связей "наружу" – когомология.

Для того, чтобы избавиться от безграничной рекурсии определения категории, нам приходится сделать предположение, что "все начинается с одного абстрактного бита информации". Эту вещь мы уже можем определить, ее существование можно постулировать. Правда в этом случае возникает нечто, находящееся вне математики, на что математика должна опереться. Математика сливается с физикой и теорией информации. Все естественные науки объединяются в счастливый союз, как это было на заре естествознания.

УНИВЕРСАЛЬНАЯ КАТЕГОРИЯ ПРИРОДЫБ

Самым чудесным свойством информационных структур является их универсальность. Информационные структуры применимы не только к информации, существующей в головах людей, но и к материальной, физической природе. Физическая природа устроена тоже иерархически.

Видимо, также как специалист не может обозреть однородную схему из миллиона транзисторов и начинает блокировать ее в иерархию стандартных библиотек элементов, также и господь бог не может обозреть однородную вселенную из 1080 бозонов. Бог структурирует их в "библиотеки стандартных элементов", формируя все более сложные по конструкции слои. Нуклоны и электроны объединяются в "библиотеку" атомов, атомы в "атлас" молекул-веществ, молекулы в физические тела, тела в планеты и звезды, звезды в галактики. То, что нравится созерцать богу видимо имеет размер метагалактики.

В любой конструкции всегда возникают непредвиденные паразитные эффекты. Так и у бога: молекулы могут объединяться не только в "простые" планеты, но и в сложные биологические конструкции (клетки). Это очень интересный факт. Наверняка живая материя для бога – это паразитный эффект, программный глюк, вирус.

Молекулы объединяются в такую конструкцию как Солнце. Сложность ее высока за счет объединения большого количества задействованных частиц. Но интуитивно мы чувствуем, что сложность даже простейших живых организмов, скорее всего не меньше. Число компонент невелико, однако конструкция настолько "изыскана", что вполне может быть по сложности сравнима с "простой", но массивной грудой элементарных частиц в звезде. Эту интуицию (о том, что по сложности вся космологическая вселенная может быть сопоставима с живым организмом) мы черпаем из нашего повседневного опыта, когда, например, "победа достигается умением, а не числом". Планеты и звезды подчиняются законам физики, а люди делают все что захотят (по крайней мере, они могут об этом мечтать).

ТЕОРИЯ ПОЗНАНИЯ И ТЕОРИЯ ИНФОРМАЦИИБ

В 31-ом номере в статье "Это сладкое слово качество" мы рассказывали о теории познания японских ученых Нонаки и Такойчи и рисовали спираль синтеза знаний – от интуитивных ощущений и навыков до публикации и адаптации теорий, языков, систем. Категория "знание" почти столь же многогранна, как и метакатегория "информация". Категорию знаний можно формально определить в терминах теории информационных структур и дополнить спираль Нонаки и Такойчи принципами синтеза информации. Это обогащает теорию познаний, и, возможно, принесет какие-то содержательные результаты в методы построения баз знаний.

Синтез знаний есть одно из свойств информационных структур социального уровня иерархии (то есть, знания по определению имеют коллективный характер). В применении к знаниям принцип 4 "Порождение несущего пространства" на обычный язык переводится, в частности, как "система высшего и среднего образования".

НЕ ЧЕЛОВЕЧЕСКИЕ ЗНАНИЯ

Компьютеры могут обрабатывать и накапливать информацию не предназначенную для человека. Например, системы автоматического управления технологическими процессами, автоматического проектирования, автоматического наведения и стрельбы – не связаны с подготовкой информации для обработки человеческим мозгом. Однако оптимальная работа этих механизмов всегда связана с иерархией информационных структур. Процессор автоматического станка преобразует команды в управляющие сигналы для исполнительных механизмов. Процессор радара обнаружения целей преобразует радиосигнал в координатные сведения о возможной цели, процессор управления огнем формирует команды для поражения цели.

Во всех этих механизмах применяются стандарты, связывающие различные иерархические информационные уровни в единую систему. Такие стандарты, без сомнения, информационные структуры. Но не следует забывать, что синтезом этих стандартов всегда занимаются люди.

ЭНЕРГИЯ – ВРАГ ИНФОРМАЦИИ

Принято считать, что именно энергия является той движущей силой, которая питает жизнь и противостоит хаосу увеличивающейся энтропии. На самом деле природа устроена прямо противоположным образом.

Все кристаллические структуры при нагревании расплавляются и испаряются. Для того, чтобы такие структуры возникли, необходимо отвести от пара и жидкости энергию, только после этого вокруг центров кристаллизации зарождаются и развиваются структуры с дальним порядком. Центр кристаллизации - это центр спонтанного нарушения симметрии хаоса.

Высокая степень неинформационной (то есть хаотической) симметрии требует для своего поддержания большого количества внутренней энергии. Молекулы газа в бутылке могут спокойно летать в течение миллиона лет. Те же молекулы для поддержания симметрии равномерного распределения в галактических масштабах должны были бы обладать огромной температурой. Такой энергии нет, и молекулы слипаются в гравитационные сгустки. Случайные флуктуации плотности формируют центры спонтанного нарушения симметрии хаоса.

Откуда возник язык человеческого общения? Очень просто, для того чтобы общаться путем пинков, мычания и жестикуляции требуется огромная энергия. По мере роста численности человекоподобных, их энергии стало недостаточно для жестикуляции и они придумали (или открыли?) язык. Огромная интеллектуальная энергия высвободившаяся при этом направилась на развитие самого интеллекта.

То же самое произошло и с социальными структурами. Нужна огромная энергия, для того чтобы тысячи людей самостоятельно мотыжили землю, добывая себе пропитание. Энергии недостает и возникает разделение труда, родовые общины, фирмы, корпорации.

В фашистской Германии кадровый потенциал членов партии оценивали по следующей шкале (в порядке увеличения полезности):

  • Глупые и энергичные – к службе не пригодны (это и на Руси всегда было известно: "Дурак с инициативой – катастрофа").
  • Глупые и ленивые – только в качестве рядовых.
  • Умные и энергичные – пригодны к службе в чине не выше младших офицеров.
  • Умные и ленивые – целесообразны для высшего руководящего состава.

В партийном строительстве нужны люди, умеющие создавать очень жесткую управленческую информационную структуру. Для структуры нужен центр кристаллизации (ум) и недостаток энергии (леность).

В 36-ом номере в статье "Системы корпоративного охлаждения" мы обсуждали методы уменьшения ошибок персонала, за счет применения систем штрихового кодирования. Если смотреть на проблему корпоративного охлаждения шире, то для стабилизации работы организационной структуры можно применить следующий алгоритм:

  • Создать недостаток внутренней энергии на каждом рабочем месте. Это достигается за счет предельного уменьшения численности персонала, так чтобы загрузка каждого сотрудника стала столь высока, что у него пропало бы желание проявлять инициативу. При этом лишняя энергия уйдет вместе с лишними людьми.
  • Поставить на руководящие должности "центры кристаллизации", то есть людей умных, но ленивых, которые бы сумели формализовать бизнес-процессы своих отделов. Энергичные кадры в этой ситуации не годятся, они проводят на работе по 14 часов, сами хватаются за все дела, "тянут лямку", готовы умереть, лишь бы не дать энтропии уменьшиться.
  • Внедрить корпоративную информационную систему, которая окончательно стабилизирует процесс, отведя всю оставшуюся энергию в полезное русло (на повышение эффективности).
  • Эффективное рассширение организационной структуры путем копирования уже имеющейся: создание новых подразделений, филиалов и так далее.

Откуда берутся библиотеки стандартных элементов, функций и объектов? Они возникают только после того, как энергии разработчиков становится недостаточно для манипуляции с блоками, содержащими тысячи однородных компонентов.

САМОЕ ИНТЕРЕСНОЕ – СИНЕРГЕТИКА И ЖИЗНЬ

Если не энергия заставляет вселенную синтезировать все новые и новые информационные структуры, то что же? Седьмой принцип – причинно-следственное завихрение. Вселенная развивается по пути причин и следствий (то что в древнекитайской философии называется Дао – путь). Этот путь структурирован в соответствии со структурой информации. Модель этого следования задается на самом нижнем уровне: булевой структурой информации первого уровня.

Как это происходит? Очень просто. Откуда на улицах берутся кучки мусора? Люди не хотят бросать на землю бумажки. Однако если какая-то бумажка в результате "спонтанного нарушения симметрии" все-таки упадет, то рядом с ней можно бросить и другие бумажки. Возникает причинно-следственное завихрение: бумажки бросают вследствие наличия на земле бумажек. В технике этот эффект называют положительной обратной связью.

Аналогично вводятся в обращение новые слова. Пока слово никто не придумал нет причины для его применения. Но как только слово понравилось некоторому "пороговому" числу людей, возникает цепная реакция его распространения.

Коммерческая или производственная фирма, также представляет собой вполне очевидный резонанс положительной обратной связи. Прибыль возникает в результате операции купли-продажи (например). Однако непременным условием возникновения и развития фирмы является отведение части прибыли на развитие фирмы. Чем больше фирма тратит на свое развитие, на рекламу, на технологию, тем больше она зарабатывает и тем больше может тратить на развитие и тем больше зарабатывать… Не следует при этом забывать, что фирма это не только деньги. Это технология, опыт сотрудников, история, внутренняя культура. Развитие обязательно предполагает создание причинно-следственной положительной обратной связи по всем этим контурам (см. статью "Это сладкое слово качество" в 31-м номере).

Получается, что информационные структуры представляют собой иерархию причинно-следственных вихрей. При этом конструкция каждого носителя информационной структуры обязательно включает в себя эффект положительной обратной связи, которая всегда замыкается на более низкий уровень информационной иерархии. "Бумажки на улице" – структура социального уровня (то есть составленная из людей) фиксируется за счет замыкания положительной обратной связи от социума к этическому воспитанию индивида ("Я не хочу сорить" – уровень индивида, "бросаем туда куда бросают все" – более высокий социальный уровень). Это справедливо для всех социальных информационных структур.

Самая загадочная и самая интересная для нас информационная структура – мы сами, homo sapiens. Эта конструкция пронизана огромным числом положительных обратных связей. Клетки, образуя организм, питают сами себя молекулярными конструкциями. Это "питание" означает синтез новых клеток по алгоритму генной памяти, при этом генная память охватывает конструкцию не только самой клетки, но и организма в целом. Движущей силой конструирования является отбор на уровне особей, который позволяет "продвигать" те алгоритмы генной памяти, которые на уровне особи способны влюбить в себя большее количество дополняющих пар, при этом сам феномен любви (и красоты) существует лишь для активизации процесса отбора, в то время как отбор возможен лишь при наличии феномена красоты (и любви).

Если представлять себе все конструкции вселенной в виде шестеренок, то самым чудесным фактом будет то, что передача крутящего момента от маленьких шестеренок к большим (простые структуры по времени всегда "оборачиваются" в своем жизненном цикле быстрее сложных) всегда сопровождается обратной передачей энергии от больших к маленьким через "фрикционные ремни" положительной обратной связи. Подача же вращающего момента "с самого начала" идет от причинонных временных тактов.

Каким образом возникают все эти сложнейшие механизмы в природе? В результате спонтанного нарушения симметрии (то есть случайным образом, в процессе многочисленных пересечений причинно-следственных связей) возникает конструкция, обеспечивающая положительную обратную связь своего уровня с одним или несколькими уровнями низших слоев иерархии. Эффективные конструкции естественным путем отбираются при синтезе более высоких уровней иерархии. Получается, еще один слой положительных обратных связей: синтез информационного носителя означает его эффективность в смысле наличия положительной обратной связи, фиксация же данного носителя (природная память) возникает лишь при полезности данного носителя по отношению к информационной структуре еще более высокого порядка. В начальный момент времени этого еще более высокого порядка не может существовать, поэтому из многих сложных конструкций со временем отбираются только те, которые пригодны для формирования еще более высоких конструкций.

Получается, что дарвинский закон естественного отбора видов является движущей силой не только в живой природе, но во всех явлениях материального и духовного мира, а сами эти миры для вселенной в целом не имеют качественных отличий – только количественные, по сложности конструкции носителей.

ГИПОТЕЗА САМОДОСТАТОЧНОСТИ

Как и все естественнонаучные теории, теория информационных структур оставляет простор для "божественного начала". Если мы говорим, что непрерывное следование временных причинонных тактов есть движущая сила всех процессов во вселенной, а сама вселенная представляет собой нагромождение "узоров" сотканных на поверхности этой груды временных тактов, то все равно остается вопрос, что заставляет "плодиться" причиноны? На каждом такте причиноны делятся как живые клетки, все вместе порождая один новый причинон. Отсюда и возникает причинно-следственная нить: первый причинон есть причина всех остальных, а все причиноны вместе есть причина одного – самого последнего.

Если мы допускаем наличие некоторой причины такого поведения "вовне" нашей вселенной, то это и будет "божественное начало всего". Однако, причинно-следственная "завихренность" всех информационных структур наводит на мысль, что сами по себе причиноны "размножаются" в соответствии с "генным алгоритмом", каковым является все вселенная в целом. В этом случае, "абсолютное следствие" (вся информация вселенной) становится своей собственной причиной посредством такого отбора причинонов от "первородного хаоса", при котором увеличение их числа никогда не прерывается. Это означало бы, что одна полностью "самодостаточная" информационная структура все-таки возможна – вселенная в целом.

Совершенно очевидно, что данную гипотезу научно никогда нельзя будет ни подтвердить, ни опровергнуть.

НЕ ВСЕ ИНФОРМАЦИЯ, ЧТО СТРУКТУРА

Практически во всех инженерных отраслях применяется декомпозиция и структурирование задач. Можно строить кирпичный дом одинаковыми этажами, или применять методы встречного (нисходящего-восходящего) структурирования программных проектов. В обоих этих случаях новые информационные структуры не создаются. Не выполняется принцип "Скольжение". В жесткой структуре блоки зафиксированы и пригодны лишь для "однократного" применения. Для того, чтобы перейти к более высокому уровню информационных структур, необходимо применить специальные усилия для разработки методологии крупноблочного строительства домов или программ ("метапроект" в ЕМЕ-ДБ).

ПОКА ПРОГРАММИСТЫ НЕ НАЧНУТ ЛЕНИТЬСЯ, У НИХ БУДУТ ПРОБЛЕМЫ

Вселенная развивается слоями иерархии информационных структур. Чтобы выжить люди занимаются разделением труда и объединяются в фирмы. Фирмы могут за счет своей внутренней энергии самостоятельно "мотыжить" одни и те же поля, однако в один прекрасный момент для выживания фирм требуется создать разделение труда и синтезировать межфирменные информационные структуры. Это достигается только при помощи национальных и международных стандартов. Сила персонального компьютера в его стандартизованности. PC обложен тысячами, если не десятками тысяч стандартов. В программном обеспечении практически ничего этого нет, в пустую расходуется огромное количество энергии.

Главная проблема, которая не позволяет подходящие стандартны ввести, это – отсутствие универсальных информационных термов высокого уровня, которые можно было бы применять в качестве параметров программных модулей. На низком уровне иерархии данных такие термы (типы) можно ввести. Например, строка текста, текст на естественном языке, объект графического изображения, произвольный абстрактный набор данных (файл, поток, устройство) и тому подобные. На высоком уровне абстракции, например на уровне модулей КИС, систем автоматизации производства, систем искусственного интеллекта, универсальные термы не существуют и не существует правил, по которым такие термы можно было бы синтезировать из простых (как, например, в математике).

В 35-ом номере в статье "И все-таки это искусство!" мы рассказывали об эксперименте, который в течение последних трех лет проводит фирма ЕМЕ. Все заказные проекты, выполняемые фирмой объединены в один метапроект. В метапроекте имена (на русском языке) таблиц и полей структуры базы данных, ссылки (стрелки) между таблицами и полями, имена диалогов, отчетов и их элементов (органов и колонок) и связи диалогов и отчетов с базой данных – все эти категории в совокупности образуют некую систему взаимосвязанных термов. Рассматривая эту систему имен в качестве модели внешнего мира, который когда-либо автоматизировался фирмой, фирма ЕМЕ разработала стандарт межмодульного взаимодействия, опирающийся только на систему имен метапроекта.

Зафиксированные имена-термы и стрелки-морфизмы превращаются в информационную структуру, которая наделяет эти имена смыслом. Смысл имен частично задается их значением и ассоциативным рядом в естественном языке, и дополняется формальной структурой ссылок базы данных. Вместе эти два ассоциативных ряда создают жесткую самодостаточную структуру, пригодную для публикации и применения в качестве стандарта низкого уровня. В начале 2000-ого года планируются соответствующие публикации.

ЕМЕ-ДБ И ПРОБЛЕМЫ ТЕОРИИ ИНФОРМАЦИИ

Новое представление об информации было положено в основу конструкции базы данных ЕМЕ-ДБ: в отличие от "простых" реляционных систем в ней фиксируется и оптимизируется не предикатная логика запросов, а произвольная структура абстрактных носителей и морфизмов. В следующих номерах мы подробно расскажем об устройстве этой СУБД, о том, что такое "ребра жесткости" и каким образом уникальный (трехслойный) пользовательский интерфейс взаимодействует с данными, алгоритмами, разработчиками и пользователями одновременно. А также, что такое "живая" база данных и каким образом достигается надежность десятилетней гарантии.

Ознакомиться со всеми публикациями фирмы ЕМЕ можно на сайте www.eme.ru.

Смотрите также…