Кодирование и передача информации на основе хаотических динамических систем с дискретным временем

  • Автор:
  • Специальность ВАК РФ: 01.04.03
  • Научная степень: Кандидатская
  • Год защиты: 2003
  • Место защиты: Москва
  • Количество страниц: 153 с. : ил.
  • Стоимость: 250 руб.
Титульный лист Кодирование и передача информации на основе хаотических динамических систем с дискретным временем
Оглавление Кодирование и передача информации на основе хаотических динамических систем с дискретным временем
Содержание Кодирование и передача информации на основе хаотических динамических систем с дискретным временем
Глава 1. Кодирование информации на основе динамического хаоса
1.1. Криптография
1.1.1. Криптографическая система
1.1.2. Классификация шифров по различным признакам
1.1.3. Энтропия и избыточность языка
1.1.4. Системы шифрования
1.2. Хаос и Криптография
1.2.1. Хаотическая система
1.2.2. Показатель Ляпунова
1.2.3. Эргодичность
1.2.4. Перемешивание
1.2.5. Самосинхронизация
1.2.6 Арифметика с плавающей запятой
1.2.7. Практическое приложение
1.2.8. Выбор хаотического отображения
1.3. Выводы
Глава 2. Схема кодирования на основе схемы с нелинейным подмешиванием информационного сигнала в хаотический
2.1. Схема с нелинейным подмешиванием
2.2. Алгоритм построения системы шифрования на основе схемы с нелинейным подмешиванием
2.3. Анализ схемы шифрования
2.4. Выводы
Глава 3. Хаотические последовательности, содержащие заданную информацию
3.1. Хаотические последовательности, содержащие заданную информацию для сдвига Бернулли и tent-отображения
3.2. Несимметричные отображения
3.2.1. Построение хаотических последовательностей с помощью функции кодирования
3.2.2. Кодирование через прообразы
3.3. Выводы
Глава 4. Хаотическая синхронизация в системах с конечным числом состояний
4.1. Схемы синхронизации с однонаправленной связью
4.2. Информационно-открытые системы
4.3. Идентификация состояния и синхронизация для симметричного тент-отображения
4.4. Идентификация состояния и синхронизация для несимметричного тент-отображения
4.4.1. Модифицированный алгоритм
4.4.2. Вероятность установления синхронизации
4.5. Выводы
Заключение
Список литературы

Открытие динамического хаоса [1-17] и дальнейшее его изучение привели к пересмотру многих привычных представлений в различных областях науки и техники. В середине 80-х годов, после обнаружения явлений хаотической синхронизации [103-108] и хаотического синхронного отклика [109] стало понятно, что нелинейная динамика может найти свое место в теории связи и теории информации [18-20].
В классической теории информации [21-23], где основным является вопрос об условиях надежной передачи сообщений, рассматриваются три типа сигналов:
• информационные, характеризуемые полосой частот, отношением сигнал-шум и/или необходимой скоростью передачи информации в бит/с;
• случайные (как правило это шумы), обладающие бесконечной энтропией (информацией);
• детерминированные (например, синусоидальные несущие сигналы), информационное содержание которых равно нулю.
Шумы ограничивают точность воспроизведения информационных сигналов и тем самым ограничивают пропускную способность каналов связи.
Уже в конце 50-х годов прошлого века начало возникать понимание того, что теория информации не является аксиоматически замкнутой, а допускает и даже требует введения новых элементов, чтобы более полно отражать информационные процессы в естественных и искусственных системах [24]. К началу 80-х годов благодаря фундаментальным открытиям в области нелинейных явлений (самоорганизация и динамический хаос [25-32]) и осознанию возможности обработки информации на квантовом уровне [33-34] созрели предпосылки для дополнения, развития, а в ряде случаев и пересмотра некоторых положений классической теории.
Хаотические колебания представляют собой специфический вид сигналов, информационное содержание которых отлично от нуля. В связи с

совместное распределение P{%,rj) и условные распределения Р(^/у), P(tj/x) для любых фиксированных значений хе^уе г/.
Условная энтропия Н{$у) определяется формулой
Н(^/у)=-^р(х/ y)-og2 р{х/у)'

Усредненная (по всем yerf) величина H(fyy) называется условной энтропией двух вероятностных распределений:
Iч) = -^Е^Мр{х1 y)'log2 р{х/У), (1.7)
yet] хе£
При этом в (1.7) по определению полагается log2р(х/у) = 0, еслир{х/у) = 0.
Величина (1.7) измеряет среднее количество информации о обнаруживаемое с помощью rj. Известно [21], что имеет место неравенство #(£/??) < #(£), причем равенство H(£hf) = Н(£) выполняется тогда и только тогда, когда р - независимые случайные величины.
Условная энтропия H(K/Y) называется неопределенностью шифра Хв по ключу. Она измеряет среднее количество информации о ключе, которую дает шифртекст. Аналогично вводится неопределенность шифра по открытому тексту H(X/Y). Эти величины являются мерой теоретической стойкости шифра. В этом можно убедиться на основании следующих рассуждений.
Минимально возможным значением неопределенности шифра по открытому тексту H(X/Y) является 0. Что можно сказать о шифре в этом случае? Ясно, что равенство H(X/Y) = 0 выполняется лишь тогда, когда каждое слагаемое в выражении для H(X/Y) равно нулю:
p(y)-p(x/y)-og2p(x/y) = 0 для всех х, у. Такая ситуация возможна лишь в случаях, когда р(х/у) = 0 или когда log2р(х/у) = 0, т.е. если р(х/у) = 1 при некоторых х, у. Это означает, что по данному у можно получить существенную информацию о х, что свидетельствует о слабости шифра. Чем больше H(X/Y), тем меньше информации получает противник об открытом тексте по криптограмме.

Рекомендуемые диссертации данного раздела