Главная страница

Криптография 2е издание Протоколы, алгоритмы и исходные тексты на языке С


Скачать 3.25 Mb.
НазваниеКриптография 2е издание Протоколы, алгоритмы и исходные тексты на языке С
Дата29.04.2022
Размер3.25 Mb.
Формат файлаpdf
Имя файлаShnayer_Prikladnaya-kriptografiya.352928.pdf
ТипПротокол
#504484
страница20 из 78
1   ...   16   17   18   19   20   21   22   23   ...   78
- Try to uncompress the file, using the major compression algorithms. If the file is compressed (and not encrypted), this should yield the original file.
- Try to compress the file. If the file is ciphertext (and the algorithm is good), then the probability that the file can be a p- preciably compressed by a general-purpose compression routine is small. (By appreciably, I mean more than 1 or 2 percent.) If it is something else (a binary image or a binary data file, for examples it probably can be compressed.
Any file that cannot be compressed and is not already compressed is probably ciphertext. (Of course, it is possible to specif i- cally make ciphertext that is compressible.) Identifying the algorithm is a whole lot harder. If the algorithm is good, you can't. If the algorithm has some slight biases, it might be possible to recognize those biases in the file. However, the biases have to be pretty significant or the file has to be pretty big in order for this to work.
10.8 HIDING CIPHERTEXT IN CIPHERTEXT
Alice and Bob have been sending encrypted messages to each other for the past year. Eve has been collecting them all, but she cannot decrypt any of them. Finally, the secret police tire of all this unreadable ciphertext and arrest the pair. "Give us your e n- cryption keys," they demand. Alice and Bob refuse, but then they notice the thumbscrews. What can they do?
Wouldn't it be nice to be able to encrypt a file such that there are two possible decryptions, each with a different key. Alice could encrypt a real message to Bob in one of the keys and some innocuous message in the other key. If Alice were caught, she could surrender the key to the innocuous message and keep the real key secret.
The easiest way to do this is with one-time pads. Let P be the plaintext, D the dummy plaintext, C the ciphertext, K the real key, and K' the dummy key. Alice encrypts P:
P ?K = C
Alice and Bob share K, so Bob can decrypt C:
C ? K = P
If the secret police ever force them to surrender their key, they don't surrender K, but instead surrender:
K'=C ? D
The police then recover the dummy plaintext:
C ? K' = D
Since these are one-time pads and K is completely random, there is no way to prove that K' was not the real key. To make
matters more convincing, Alice and Bob should concoct some mildly incriminating dummy messages to take the place of the really incriminating real messages. A pair of Israeli spies once did this.
Alice could take P and encrypt it with her favorite algorithm and key K to get C. Then she takes C and XORs it with some piece of mundane plaintext - Pride and Prejudice for example, to get K'. She stores both C and the XOR on her hard disk. Now,
when the secret police interrogate her, she can explain that she is an amateur cryptographer and that K' is a merely one-time pad for C. The secret police might suspect something, but unless they know K they cannot prove that Alice's explanation isn't valid.
Another method is to encrypt P with a symmetric algorithm and K, and D with K'. Intertwine bits (or bytes) of the ciphertext to make the final ciphertexts. If the secret police demand the key, Alice gives them K' and says that the alternating bits (or bytes)
are random noise designed to frustrate cryptanalysts. The trouble is the explanation is so implausible that the secret police will probably not believe her (especially considering it is suggested in this book). A better way is for Alice to create a dummy me s- sage, D, such that the concatenation of P and D, compressed, is about the same size as D. Call this concatenation P'. Alice then encrypts P' with whatever algorithm she and Bob share to get C. Then she sends C to Bob. Bob decrypts C to get P', and then P and
D. Then they both compute C 0 D = K'. This K' becomes the dummy one-time pad they use in case the secret police break their doors down. Alice has to transmit D so that hers and Bob's alibis match.
Another method is for Alice to take an innocuous message and run it through some error-correcting code. Then she can i n- troduce errors that correspond to the secret encrypted message. On the receiving end, Bob can extract the errors to reconstruct the secret message and decrypt it. He can also use the error-correcting code to recover the innocuous message. Alice and Bob might be hard pressed to explain to the secret police why they consistently get a 30 percent bit-error rate on an otherwise noise-free co m- puter network, but in some circumstances this scheme can work.
Finally, Alice and Bob can use the subliminal channels in their digital signature algorithms (see Sections 4.2 and 23.3). This is undetectable, works great, but has the drawback of only allowing 20 or so characters of subliminal text to be sent per signed innocuous message. It really isn't good for much more than sending keys.
10.9 DESTROYING INFORMATION
When you delete a file on most computers, the file isn't really deleted. The only thing deleted is an entry in the disk's index file,
telling the machine that the file is there. Many software vendors have made a fortune selling file-recovery software that recovers files after they have been deleted.
And there's yet another worry: Virtual memory means your computer can read and write memory to disk any time. Even if you don't save it, you never know when a sensitive document you are working on is shipped off to disk. This means that even if you never save your plaintext data, your computer might do it for you. And driver-level compression programs like Stacker and
DoubleSpace can make it even harder to predict how and where information is stored on a disk.
To erase a file so that file-recovery software cannot read it, you have to physically write over all of the file's bits on the disk.
According to the National Computer Security Center [1148]:
Overwriting is a process by which unclassified data are written to storage locations that previously held sensitive data.... To purge the ... storage media, the DoD requires overwriting with a pattern, then its complement, and finally with another pattern;
e.g., overwrite first with 0011 0101, followed by 1100 1010, then 1001 0111. The number of times an overwrite must be acco m- plished depends on the storage media, sometimes on its sensitivity, and sometimes on different DoD component requirements. In any case, a purge is not complete until a final over- write is made using unclassified data.
You may have to erase files or you may have to erase entire drives. You should also erase all unused space on your hard disk.
Most commercial programs that claim to implement the DoD standard over- write three times: first with all ones, then with all zeros, and finally with a repeating one-zero pattern. Given my general level of paranoia, I recommend overwriting a deleted file seven times: the first time with all ones, the second time with all zeros, and five times with a cryptographically secure pseudo- random sequence. Recent developments at the National Institute of Standards and Technology with electron-tunneling microscopes suggest even that might not be enough. Honestly, if your data is sufficiently valuable, assume that it is impossible to erase data completely off magnetic media. Burn or shred the media; it's cheaper to buy media new than to lose your secrets.

Часть III
Криптографические алгоритмы

Глава 11
Математические основы
11.1 Теория информации
Современная теория информации впервые была опубликована в 1948 году Клодом Э. Шенноном (Claude
Elmwood Shannon) [1431, 1432]. (Его работы были переизданы в IEEE Press [1433].) С математической точки зрения эта тема хорошо рассмотрена в [593]. В этой главе я только схем атично излагаю основные идеи.
Энтропия и неопределенность
Теория информации определяет количество информации в сообщении как минимальное количество бит,
необходимое для кодирования всех возможных значений сообщения, считая все сообщения равновероятными.
Например, для поля дня недели в базе данных достаточно использовать три бита информации, так как вся и н- формация может быть закодирована 3 битами:
000 - Воскресенье
001 - Понедельник
010 - Вторник
011 - Среда
100 - Четверг
101 - Пятница
110 - Суббота
111 - Не используется
Если эта информация была бы представлена соответствующими строками ASCII символов, она заняла бы больше места в памяти, но не содержала бы больше информации. Аналогично, поле базы данных "пол" соде р- жит только один бит информации, хотя эта информация может храниться как одно из двух 7-байтовых ASCII
строк: "МУЖЧИНА" или "ЖЕНЩИНА".
Формально, количество информации в сообщении M измеряется энтропией сообщения, обозначаемое как
H(M). Энтропия сообщения, определяющего пол, составляет1 бит, а энтропия сообщения, определяющего день недели, немного меньше, чем 3 бита. В общем случае энтропия сообщения, измеряемая в битах, равна log
2
n,
где n - это количество возможных значений. При этом предполагается, что все значения равновероятны.
Энтропия сообщения также является мерой его неопределенности. Это количество битов открытого текста,
которое нужно раскрыть в шифротексте сообщения, чтобы узнать весь открытый текст. Например, если блок шифротекста "QHP*5M '' означает либо "МУЖЧИНА", либо "ЖЕНЩИНА", то неопределенность сообщения равна 1. Криптоаналитику нужно узнать только один правильно выбранный бит, чтобы раскрыть с ообщение.
Норма языка
Для данного языка норма языка равна r = H(M)/N
где N - это длина сообщения. При больших N норма обычного английского языка принимает различные зн а- чения от 1.0 бит/буква до 1.5 бит/буква. Шеннон в [1434] говорит, что энтропия зависит от длины текста. Ко н- кретно он показал, что норма для 8-буквенных блоков равна 2.3 бит/буква, но ее значение падает и находится между 1.3 и 1.5 для 16-буквенных блоков. Томас Кавер (Thomas Cover) использовал игровую методику оценки и обнаружил, что энтропия равна 1.3 бит/символ [386]. (В этой книге я буду использовать значение 1.3.) Абсо- лютная норма языка равна максимальному количеству битов, которое может быть передано каждым символом при условии, что все последовательности символов равновероятны. Если в языке L символов, то абсолютная норма равна:
R = log
2
L
Это максимум энтропии отдельных символов.
Для английского языка с 26 буквами абсолютная норма равна log
2 26, или около 4.7 бит/буква. Вас не долж- но удивлять, что действительная норма английского языка намного меньше, чем абсолютная - естественные языки обладают высокой избыточностью. Избыточность языка, обозначаемая D, определяется как:
D=R - r
Считая, что норма английского языка равна 1.3, избыточность составит 3.4 бит/буква. Это означает, что к а- ждая английская буква содержит 3.4 бита избыточной информации.
У сообщения ASCII, состоящего только из английских букв, количество информации на каждый байт с о-
ставляет 1.3 бита. Значит, в каждом байте содержится 6.7 бита избыточной информации, что дает общую изб ы- точность 0.84 бита информации на бит ASCII-текста и энтропию 0.16 бита информации на бит ASCII-текста. То же сообщение, набранное кодом BAUDOT, с 5 битами на символ, имеет избыточность 0.74 бита на бит и энтр о- пию 0.26 бита на бит. Пробелы, пунктуация, числа и форматирование изменяют эти результаты.
Безопасность криптосистемы
Шеннон определил точную математическую модель понятия безопасности криптосистемы. Смысл работы криптоаналитика состоит в определении ключа К, открытого текста P или и того, и другого. Однако, его может устроить и некоторая вероятностная информация о P: является ли этот открытый текст оцифрованным звуком,
немецким текстом, данными электронных таблиц или еще чем-нибудь.
В реальном криптоанализе у криптоаналитика есть некоторая вероятностная информация о P еще до начала работы. Он, скорее всего, знает язык открытого текста. Этот язык обладает определенной, связанной с ним и з- быточностью. Если это сообщения для Боба, оно, возможно, начинается словами "Дорогой Боб". Определенно,
"Дорогой Боб" намного вероятнее, чем "e8T&.g [,m". Целью криптоаналитика является изменение вероятностей,
связанных с каждым возможным открытым текстом. В конце концов, из груды возможных открытых текстов будет выбран один конкретный (или, по крайней мере, весьма вероятный).
Существуют криптосистемы, достигающие совершенной безопасности. Такой является криптосистема, в которой шифротекст не дает никакой информации об открытом тексте (кроме, возможно, его длины). Шеннон теоретически показал, что такое возможно только, если число возможных ключей также велико, как и число возможных сообщений. Другими словами, ключ должен быть не короче самого сообщения и не может испол ь- зоваться повторно. Это означает, что единственной системой, которая достигает идеальной безопасности, может быть только криптосистема с одноразовым блокнотом (см. раздел 1.5).
За исключением идеально безопасных систем, шифротекст неизбежно дает определенную информацию о с о- ответствующем шифротексте. Хороший криптографический алгоритм сохраняет минимум этой информации,
хороший криптоаналитик пользуется этой информацией для определения открытого текста.
Криптоаналитики используют естественную избыточность языка для уменьшения числа возможных откр ы- тых текстов. Чем избыточнее язык, тем легче его криптоанализировать. По этой причине многие криптограф и- ческие реализации перед шифрованием используют программы сжатия для уменьшения размера текста. Сжатие уменьшает избыточность сообщения вместе с объемом работы, необходимым для его шифрования и дешифр и- рования.
Энтропия криптосистемы является мерой размера пространства ключей, K. Она приблизительно равна лога- рифму числа ключей по основанию 2:
H(К) = log
2
K
Энтропия криптосистемы с 64-битовым ключом равна 64 битам, энтропия криптосистемы с 56-битовым ключом равна 56 битам. В общем случае чем больше энтропия, тем тяжелее взломать криптосистему.
Расстояние уникальности
Для сообщения длиной n число различных ключей, которые расшифруют шифротекст сообщения в какой-то осмысленный открытый текст на языке оригинального открытого текста (например, английском), определяется следующей формулой [712, 95]:
2
H(K)-nD
-1
Шеннон [1432] определил расстояние уникальности, U, называемое также точкой уникальности, как такое приближенное количество шифротекста, для которого сумма реальной информации (энтропия) в соответству ю- щем открытом тексте плюс энтропия ключа шифрования равняется числу используемых битов шифротекста.
Затем он показал, что имеет смысл считать, что шифротексты, которые длиннее расстояния уникальности, мо ж- но расшифровать только одним осмысленным способом. Шифротексты, которые заметно короче расстояния уникальности, скорее всего, можно расшифровать несколькими способами, каждый из которых может быть правилен, и таким образом обеспечить безопасность, поставив противника перед выбором правильного откр ы- того текста.
Для большинства симметричных криптосистем расстояние уникальности определяется как энтропия крипт о- системы деленная на избыточность языка.
U = H(К)/D
Расстояние уникальности является не точным, а вероятностным значением. Оно позволяет оценить мин и- мальное количество шифротекста, при вскрытии которого грубой силой имеется, вероятно, только один разу м- ный способ дешифрирования. Обычно чем больше расстояние уникальности, тем лучше криптосистема. Для
DES с 56-битовым ключом и англоязычного сообщения, записанного символами ASCII, расстояние уникальн о-
сти приблизительно равно 8.2 символа ASCII или 66 бит. В 1405-й приведены расстояния уникальности для различных длин ключа. Расстояния уникальности для некоторых классических криптосистем можно найти в
[445].
Расстояние уникальности измеряет не количество криптотекста, нужного для криптоанализа, а количество криптотекста, необходимое для единственности результата криптоанализа. Криптосистема может быть вычи с- лительно неуязвима, даже если теоретически ее возможно взломать, используя малое количество шифротекста.
(Уместно вспомнить о весьма эзотерической теории релятивистской криптографии [230, 231, 232, 233, 234,
235].) Расстояние уникальности пропорционально избыточности. Если избыточность стремится к нулю, даже тривиальный шифр может не поддаться вскрытию с использованием только шифротекста.
Табл. 11-1.
Расстояния уникальности текста ASCII,
зашифрованного алгоритмами с различной длиной ключа
Длина ключа (в битах)
Расстояние уникальности (в символах)
40 5.9 56 8.2 64 9.4 80 11.8 128 18.8 256 37.6
Шеннон определил криптосистему с бесконечным расстоянием уникальности, как обладающую идеальной тайной. Обратите внимание, что идеальная криптосистема не обязательно является совершенной, хотя сове р- шенная криптосистема обязательно будет и идеальной. Если криптосистема обладает идеальной тайной, то даже при успешном криптоанализе останется некоторая неопределенность, является ли восстановленный открытый текст реальным открытым текстом.
Практическое использование теории информации
Хотя эти понятия имеют большое теоретическое значение, реальный криптоанализ использует их достаточно редко. Расстояние уникальности гарантирует ненадежность системы, если оно слишком мало, но его высокое значение не гарантирует безопасности. Несколько практических алгоритмов абсолютно не поддаются анализу,
поведение параметров теории информации могло бы способствовать взлому некоторых шифрованных сообщ е- ний. Однако, подобные соображения теории информации иногда полезны, например, для определения в ко н- кретном алгоритме рекомендуемого интервала изменения ключей. Криптоаналитики также используют ряд те с- тов не базе статистики и теории информации, чтобы выбирать наиболее перспективные направления анализа. К
сожалению, большинство литературы по применению теории информации в криптоанализе остается секретной,
включая основополагающую работу Алана Тьюринга (Alan Turing), написа нную в 1940.
Путаница и диффузия
Двумя основными методами маскировки избыточности открытого текста сообщения, согласно Шеннону,
служат путаница и диффузия [1432].
Путаница маскирует связь между открытым текстом и шифротекстом. Она затрудняет попытки найти в шифротексте избыточность и статистические закономерности. Простейшим путем создать путаницу является подстановка. В простом подстановочном шифре, например, шифре Цезаря, все одинаковые буквы открытого текста заменяются другими одинаковыми буквами шифротекста. Современные подстановочные шифры являю т- ся более сложными: длинный блок открытого текста заменяется блоком шифротекста, и способ замены меняе т- ся с каждым битом открытого текста или ключа. Такого типа подстановки обычно недостаточно - сложный а л- горитм немецкой Энигмы был взломан в ходе второй мировой войны.
1   ...   16   17   18   19   20   21   22   23   ...   78


написать администратору сайта