gestern Abend lief auf irgendeinem Kanal "... Tempelritter" (oder so
ähnlich). Darin wurde etwas von einer Oppendorf-Verschlüsselung gefaselt.
Das habe ich mal bei Tante Google eingegeben. Nix!
Das System war simpel. 18-9-5 bedeutet Seite 18, Zeile 9 und dann der 5.
Buchstabe. So wird jeder einzelne Buchstabe, Zahl oder Zeichen codiert.
Ist von einer solchen Verschlüsselung hier etwas bekannt?
Hab ich evtl. etwas falsch verstanden?
Mit freundlichen Grüßen
W.M.
> gestern Abend lief auf irgendeinem Kanal "... Tempelritter" (oder so
> ähnlich). Darin wurde etwas von einer Oppendorf-Verschlüsselung gefaselt.
>
> Das habe ich mal bei Tante Google eingegeben. Nix!
"Ottendorf-Verschlüsselung"
http://de.wikipedia.org/wiki/Buch-Verschl%C3%BCsselung
Bernd
--
Wenn Frauen nicht wissen was sie machen sollen, ziehen sie sich aus ...
Und wenn Männer nicht wissen, was sie machen sollen, dann schauen sie
sich Frauen an, die nicht wussten, was sie machen sollen ...
Ein sog. "Buch-Code".
> Ist von einer solchen Verschlüsselung hier etwas bekannt?
Derartige Systeme sind, in verschiedenen Varianten, seit langem bekannt.
> Hab ich evtl. etwas falsch verstanden?
Glaube nicht.
Oh:
| Unter diesen Voraussetzungen und unter der Annahme, dass sich niemand
| Zugang zu diesem als Schlüssel dienenden Buch verschaffen kann, ist
| das Verfahren der Buch-Verschlüsselung als praktisch „unbrechbar“ zu
| bezeichnen und seine Sicherheit kommt der des
| Einmalschlüsselverfahrens nahe.
Diese Passage aus dem Wikipedia-Artikel würde ich allerdings als
"äußerst optimistisch" einschätzen...
Wenn dieses Verfahren richtig angewendet wird, sollte es eine ähnliche
Sicherheit besitzen wie Verfahren, deren zufällig gebildeter Schlüssel
genauso lang wie die Nachricht ist.
1. Daher ist es wichtig keine Kodierungen zu wiederholen. Jeder einmal
benutzte Code aus dem Buch ist verbrannt.
2. Der Hinweis mit den Unikaten ist richtig. Ideal sind Schriften, die
aufgrund ihrer Einmaligkeit und Seltenheit den meisten Menschen nicht
bekannt und zugänglich sind.
3. Die Bücher wiederum sind streng geheim zu halten.
Unter diesen Voraussetzungen kann ich nicht erkennen, mit welchen
Methoden man eine verschlüsselte Nachricht entschlüsseln können sollte.
Maximilien
Ein One-Time-Pad?
> 1. Daher ist es wichtig keine Kodierungen zu wiederholen. Jeder einmal
> benutzte Code aus dem Buch ist verbrannt.
Zufall schließt Wiederholung nicht aus.
> 2. Der Hinweis mit den Unikaten ist richtig. Ideal sind Schriften, die
> aufgrund ihrer Einmaligkeit und Seltenheit den meisten Menschen nicht
> bekannt und zugänglich sind.
Es steht unter Garantie dem Angreifer zur Verfügung.
> 3. Die Bücher wiederum sind streng geheim zu halten.
Das beißt sich mit 2.
> Unter diesen Voraussetzungen kann ich nicht erkennen, mit welchen
> Methoden man eine verschlüsselte Nachricht entschlüsseln können sollte.
So, wie Du es beschreibst, wäre es so etwas Ähnliches wie ein
One-Time-Pad dessen Schlüssel eben nicht zufällig gebildet wurde und der
zu allem Überfluß auch noch im Besitz des potentiellen Angreifers ist.
OTP ist nicht umsonst ein Snake-Oil-Indikator.
Richtig angewendet = Nicht angewendet.
>> Sicherheit besitzen wie Verfahren, deren zufällig gebildeter Schlüssel
>> genauso lang wie die Nachricht ist.
>
> Ein One-Time-Pad?
Nein. Ein OTP ist ein geheimer Schluessel. Buecher sind nicht geheim.
>> 1. Daher ist es wichtig keine Kodierungen zu wiederholen. Jeder einmal
>> benutzte Code aus dem Buch ist verbrannt.
>
> Zufall schließt Wiederholung nicht aus.
>
>> 2. Der Hinweis mit den Unikaten ist richtig. Ideal sind Schriften, die
>> aufgrund ihrer Einmaligkeit und Seltenheit den meisten Menschen nicht
>> bekannt und zugänglich sind.
>
> Es steht unter Garantie dem Angreifer zur Verfügung.
ACK.
>> 3. Die Bücher wiederum sind streng geheim zu halten.
>
> Das beißt sich mit 2.
ACK.
>> Unter diesen Voraussetzungen kann ich nicht erkennen, mit welchen
>> Methoden man eine verschlüsselte Nachricht entschlüsseln können sollte.
>
> So, wie Du es beschreibst, wäre es so etwas Ähnliches wie ein
> One-Time-Pad dessen Schlüssel eben nicht zufällig gebildet wurde und der
> zu allem Überfluß auch noch im Besitz des potentiellen Angreifers ist.
Korrekt. Solche Chiffren wurden auch in der Vergangenheit oft und
schnell gebrochen.
Bücher enthalten natürliche Sprache. Es gibt also in jedem Fall eine
Systematik der verzeigten Codes, die sich für einen Angriff ausnutzen läßt.
>> 2. Der Hinweis mit den Unikaten ist richtig. Ideal sind Schriften,
>> die aufgrund ihrer Einmaligkeit und Seltenheit den meisten Menschen
>> nicht bekannt und zugänglich sind.
>
> Es steht unter Garantie dem Angreifer zur Verfügung.
Warum sollte es?
Harald
> 2. Der Hinweis mit den Unikaten ist richtig. Ideal sind Schriften, die
> aufgrund ihrer Einmaligkeit und Seltenheit den meisten Menschen nicht
> bekannt und zugänglich sind.
Einmalig geht nicht, zweimalig ist minimum.
Das Buch kann ein zuvor versandter Brief sein, der verschlossen angekommen
ist.
Hier kommt es auf das Umfeld an, wenn Geheimdienste dabei sind, haben die
andere technische Mglichkeiten den Brief zu lesen.
> 3. Die Bücher wiederum sind streng geheim zu halten.
Je öffentlicher, desto besser.
Man wird eher im Umfeld der Betreffenden suchen, wenn man erkannt hat, dass
es ein Buchcode ist.
Man sollte allerdings keine Internetveröffentlichungen verwenden, allerdings
clever gemacht, ist das auch kein Problem.
> Unter diesen Voraussetzungen kann ich nicht erkennen, mit welchen
> Methoden man eine verschlüsselte Nachricht entschlüsseln können
> sollte.
Wichtig ist, dass der Angreifer keine Hinweise auf das verwendete Buch
bekommt.
Eine Zeitung könnte man an der geringen Zeitenzahl entlarven, aber die
Seitenzahl muss ja nicht der echten entsprechen, die Buschstabenzahl
ebenfalls nicht.
Harald
Was ist daran optimistisch.
Die Vorraussetzung ist, dass der Angreifer sich das Buch nicht verschaffen
kann.
Wie willst du ohne Buch entschlüsseln?
Auch wenn das Buch grundsätzlich beschaffbar ist, wie viele Milliarden gibt
es?
Täglich erscheinen milliarden Bücher neu! Bücher im Sinne des Verfahrens.
Harald
Du meintest am 10.06.11:
>> 2. Der Hinweis mit den Unikaten ist richtig. Ideal sind Schriften,
>> die aufgrund ihrer Einmaligkeit und Seltenheit den meisten Menschen
>> nicht bekannt und zugänglich sind.
> Es steht unter Garantie dem Angreifer zur Verfügung.
Nicht unbedingt. Siehe
http://home.egge.net/~savory/chiffree.htm
und dort die letzten Absätze.
Viele Gruesse!
Helmut
Nicht unbedingt. Wenn jeder Code nur einmal verwendet wird, dann wirds schwer.
Die Ordnung der Worte im Buch ist aus dem Code ablesbar. Das reicht.
Existenz
Es geht um die Existenz!
Ist etwas existent, dann kann es auch gefunden werden. (Sei es ein Buch, sei
es eine Datei, oder ein Stück Holz im Regenwald von Südamerika, etc.)
Habe ich einen Schlüssel, dann ist er "unbrechbar" solange er nicht gefunden
wird. Wird dieser aber nicht gefunden, dann kann ich diesen nicht anwenden.
Die Information (oder was auch immer) ist futschikato, da das dann natürlich
für alle und jedes gilt!
Zeit ist mir wichtig! (Den Zusatz "sehr" habe ich mir deswegen gespart!)
Mit Gruß
Heinz-Mario Frühbeis
Eine Grundannahme "Der Gegner kennt das benutzte System".
Du willst Dich jetzt ernsthaft darauf verlassen, daß es auch schonmal
funktioniert hat?
> Siehe
>
> http://home.egge.net/~savory/chiffree.htm
>
> und dort die letzten Absätze.
Da steht, wie man dem trotzdem beikommt. Bekannt. Lange.
Das:
> Die Vorraussetzung ist, dass der Angreifer sich das Buch nicht
> verschaffen kann.
Wenn das Buch *tatsächlich* nur in 2 Exemplaren existiert, dann nehme
ich gleich ein _richtiges_ OTP. Ich würde mich jedenfalls auf nichts
verlassen, was auch nur entfernt nach "natürlichsprachig" riecht.
Wenn das Buch in mehr als 2 Exemplaren existiert, dann ist das Verfahren
sowieso Quatsch.
> Wie willst du ohne Buch entschlüsseln?
Das wurde schon häufig demonstriert.
> Auch wenn das Buch grundsätzlich beschaffbar ist, wie viele
> Milliarden gibt es? Täglich erscheinen milliarden Bücher neu! Bücher
> im Sinne des Verfahrens.
Irrelevant. Bücher wurden und werden schließlich digitalisiert.
Nein. Je nachdem kann es auf anderem Wege gelingen, den Schlüssel zu
rekonstruieren.
> Zeit ist mir wichtig! (Den Zusatz "sehr" habe ich mir deswegen gespart!)
Das kommt darauf an, wie lange die zu schützende Information
geheimgehalten werden muß.
Die Information "Der Angriff erfolgt um 0600" ist um 0601 vollkommen
wertlos.
Du meintest am 10.06.11:
>>>> 2. Der Hinweis mit den Unikaten ist richtig. Ideal sind Schriften,
>>>> die aufgrund ihrer Einmaligkeit und Seltenheit den meisten
>>>> Menschen nicht bekannt und zugänglich sind.
>>> Es steht unter Garantie dem Angreifer zur Verfügung.
>>
>> Nicht unbedingt.
> Du willst Dich jetzt ernsthaft darauf verlassen, daß es auch schonmal
> funktioniert hat?
???
Das ist eine sehr freie Interpretattion von "nicht unbedingt".
>> Siehe
>>
>> http://home.egge.net/~savory/chiffree.htm
>>
>> und dort die letzten Absätze.
> Da steht, wie man dem trotzdem beikommt. Bekannt. Lange.
Und damit ist Deine Behauptung "Es steht unter Garantie dem Angreifer
zur Verfügung" widerlegt.
Was wolltest Du noch gleich beweisen?
Viele Gruesse!
Helmut
Ja genau!
Es ist halt eine Frage der Existenz.
Materie geht nicht verloren; sie wandelt sich nur. (Is' doch richtig so?)
Und wer es auch so sehen mag, dann sollte klar sein, das meine Antwort ein
Paradoxum darstellt.
>> Zeit ist mir wichtig! (Den Zusatz "sehr" habe ich mir deswegen
>> gespart!)
>
> Das kommt darauf an, wie lange die zu schützende Information
> geheimgehalten werden muß.
>
> Die Information "Der Angriff erfolgt um 0600" ist um 0601 vollkommen
> wertlos.
Es sollte einfach das Paradoxum unterstreichen!
Im Grunde genommen sind solche Diskussionen eher müßig und reine
Zeitverschwendung.
Es gibt keine 100%ige Sicherheit! Und wir werden diese wohl auch nie
erreichen. Denn dann wären wir ein Gott (noch nicht einmal Götter!).
Solange irgendwer meint, irgend ein System zu brechen, solange wird das auch
möglich sein.
100%ige Sicherheit: Das wäre bestimmt ein großer Schritt in eine heile Welt,
aber sind wir doch mal ehrlich ...
Jetzt schreibe ich mein System weiter und verbrauche 95% der Zeit damit
Sicherheitsvorkehrungen zu schreiben um die 5% wirklich relevanten Funktion,
etc. zu schützen ...
Mit Gruß
Heinz-Mario Frühbeis
Nein. Diese Grundannahme gilt auch dann, wenn's mal nicht so war.
> Was wolltest Du noch gleich beweisen?
Daß Du ein bischen trollen wolltest. Ist mir gelungen.
Käse. Selbstverständlich gibt es 100%ige Sicherheit. Genau genommen gibt
es sogar nur 100% Sicherheit. Denn alles, was nicht sicher ist, ist
definitionsgemäß unsicher.
Die Annahme der 100% Sicherheit gilt allerdings immer nur in konkret
definierten Szenarien. Beispiel: Man kann eine kugelsichere Weste bauen,
die Geschosse eines bestimmten Kalibers, abgeschossen aus einer
bestimmten Entfernung, garantiert *sicher* nicht durchläßt.
In der Praxis hat man es allerdings mit mehreren, sich teilweise
überlappenden Szenarien zu tun. Beispiel aus oben: Der Angreifer könnte
ja auf die Idee kommen, stattdessen auf den Kopf zu zielen.
Man kann jetzt einen Stahlhelm verwenden, der genauso *sicher* ist wie
o.g. Weste.
Nun wird allerdings der Stahlhelm nicht die gesamte mögliche
Trefferfläche bedecken; der Verteidiger soll ja schließlich noch was
sehen (und auch nicht durch Gewicht und Gestaltung von Helm und Weste zu
sehr beeinträchtigt werden). Dennoch ist der Teil vom Kopf, der durch
den Stahlhelm bedeckt wird, zu 100 % sicher.
Die mögliche Trefferfläche wurde *sicher* verkleinert.
So geht's dann immer weiter.
Die entscheidende Frage ist dann die Eintrittswahrscheinlichkeit
bestimmter Szenarien: Wie hoch schätzt man das Risiko ein, daß der
Angreifer ungeschützte Körperteile trifft *und* was passiert dann? Ist
das Risiko hinnehmbar?
Es geht also darum, Eintrittswahrscheinlichkeiten inkl. möglicher Folgen
abzuschätzen & zu managen.
Das ist dann der entscheidende Punkt: Aus Opportunitätsgründen wird man
die Risiken aus bestimmten Szenarien für hinnehmbar erachten. Man
erreicht also in der Summe sämtlicher Szenarien nie 100 %. In einzelnen
Szenarien hingegen ist das überhaupt kein Problem.
Ein Szenario ist doch wohl auch immer die Summe wiederum einzelner
(kleinerer) Szenarien.
Is' doch wie mit einem Atom. Kleiner gehts bis dato immer!
Es ist und bleibt eine Frage der Existenz! SIHS (Sorry ist halt so)
Mit Gruß
Heinz-Mario Frühbeis
Du meintest am 10.06.11:
>>> Da steht, wie man dem trotzdem beikommt. Bekannt. Lange.
>> Und damit ist Deine Behauptung "Es steht unter Garantie dem
>> Angreifer zur Verfügung" widerlegt.
> Nein. Diese Grundannahme gilt auch dann, wenn's mal nicht so war.
"Pippi Langstrumpf -ich mach' mir die Welt widde wid wie sie mir gefällt!"
Viele Gruesse!
Helmut
Nicht, wenn die Lücken hinreichend groß sind.
>> Es steht unter Garantie dem Angreifer zur Verfügung.
>
> Nicht unbedingt. Siehe
>
> http://home.egge.net/~savory/chiffree.htm
>
> und dort die letzten Absätze.
Ach Hullen, so blöd darf man nicht sein, immer das selbe Bucht zu verwenden.
Der letzte Satz ist eine Urban Legend, die Briten haben eine Enigma erobert.
Seine Einwände sind auch Unsinn, die Enigma ist ja praktisch ein
Buchverfahren und die Enigma war so aufgebaut, dass sie praktisch
tausendende von Büchern beinhaltete und die Bücher wurden gewechselt, damit
funktioniert das Verfahren mit den bekannten Wörtern nicht.
Die Enigma zu knacken ist aber sicherlich um einiges leichter als ein echtes
Buchverfahren, denn sie arbeitete praktisch mit einer begrenzten Anzahl
Bücher.
Harald
Lass mich nicht dumm sterben, welche Systematik?
Harald
Das darf er.
Er kannet aber das Buch nicht.
Harald
>> Was ist daran optimistisch.
>
> Das:
>
>> Die Vorraussetzung ist, dass der Angreifer sich das Buch nicht
>> verschaffen kann.
>
> Wenn das Buch *tatsächlich* nur in 2 Exemplaren existiert, dann nehme
> ich gleich ein _richtiges_ OTP.
Die Frage stellt sich hier nicht.
> Ich würde mich jedenfalls auf nichts
> verlassen, was auch nur entfernt nach "natürlichsprachig" riecht.
Was riecht denn hier nach natürlichsprachlich?
> Wenn das Buch in mehr als 2 Exemplaren existiert, dann ist das
> Verfahren sowieso Quatsch.
Aha, du wirst es sicher begründen können.
>> Wie willst du ohne Buch entschlüsseln?
>
> Das wurde schon häufig demonstriert.
Interessant, erzähl mehr.
>> Auch wenn das Buch grundsätzlich beschaffbar ist, wie viele
>> Milliarden gibt es? Täglich erscheinen milliarden Bücher neu! Bücher
>> im Sinne des Verfahrens.
>
> Irrelevant. Bücher wurden und werden schließlich digitalisiert.
ROTFL.
Erst einmal musst du begreifen, dass Buch im Sinne dieses Verfahrens jedes
beliebige Schriftstück ist, zum zweiten, musst das digitalierte Buch exact
dem Verwendeten entsprechen, die gleichen Umbrüche, die gleichen
Seitennummerierung etc.
Und selbst wenn das Buch digitalisiert vorliegt, muss es dem Angreifer auch
vorliegen.
Harald
> Nein. Je nachdem kann es auf anderem Wege gelingen, den Schlüssel zu
> rekonstruieren.
Wie?
Du hast ein Zahlenwirrwar und jede Zahl kann einem beleibigen Zeichen
entsprechen.
> Das kommt darauf an, wie lange die zu schützende Information
> geheimgehalten werden muß.
Ein Buchcode bleibt so lange geheim bis das Buch gefunden wurde.
Harald
Der Wortschatzumfang eines Buches ist ebenso stark beschraenkt wie die
Verteilung. Es gibt Woerter und Buchstaben, die eine starke Haeufung
zeigen. Das erlaubt diverse statistische Angriffe gegen das Chiffrat
ebenso wie statistische Anlaysen die Informationen ueber das
verwendete Buch erschliessen (insbesondere wenn beim Chiffrieren
versucht wird gezielt die statistischen Haeufungen zu kompensieren).
Aus diesem Grunde haben die Militaers des vor-vorletzten Jahrhunderts
auch statt irgendwelcher Buecher spezielle Codebuecher verwendet, die
zum einen mehr oder weniger gleichverteilten "Unsinn" enthielten, zum
anderen nur als Kopien zwischen Sender und Empfaenger existierten
(zumindest solange bis sie geklaut/kopiert wurden).
Die Chiffren, die irgendwelche Buecher natuerlicher Sprache verwendet
haben, wurden schon in den Anfaengen der Cryptographie gebrochen.
Juergen
--
Juergen P. Meier - "This World is about to be Destroyed!"
end
If you think technology can solve your problems you don't understand
technology and you don't understand your problems. (Bruce Schneier)
Du meintest am 11.06.11:
>>> Es steht unter Garantie dem Angreifer zur Verfügung.
>> Nicht unbedingt. Siehe
>>
>> http://home.egge.net/~savory/chiffree.htm
>>
>> und dort die letzten Absätze.
> Ach Hullen, so blöd darf man nicht sein, immer das selbe Buch zu
> verwenden.
Ja und? Zwei der Beispiele zeigen, dass so etwas trotzdem vorgekommen
ist.
Viele Gruesse!
Helmut
Und diese wurden gebrochen, weil die Ungleichverteilung der Tastenanschläge
der Codebuchtippsen (ein Blatt mit einem Durchschlag) für die Analyse
ausreichte. Die Tasten in der Mitte der Schreibmaschine werden häufiger
benutzt, ebenso wie es weniger wahrscheinlich ist, daß ein Finger zweimal
(oder gar eine Hand zweimal hintereinander) wird.
>> Ach Hullen, so blöd darf man nicht sein, immer das selbe Buch zu
>> verwenden.
>
> Ja und? Zwei der Beispiele zeigen, dass so etwas trotzdem vorgekommen
> ist.
Und?
Da beweist nur, dass es Deppen gibt, nicht dass das Verfahren unsicher ist.
Harald
>> Nicht, wenn die Lücken hinreichend groß sind.
>
> Der Wortschatzumfang eines Buches ist ebenso stark beschraenkt wie die
> Verteilung. Es gibt Woerter und Buchstaben, die eine starke Haeufung
> zeigen. Das erlaubt diverse statistische Angriffe gegen das Chiffrat
> ebenso wie statistische Anlaysen die Informationen ueber das
> verwendete Buch erschliessen (insbesondere wenn beim Chiffrieren
> versucht wird gezielt die statistischen Haeufungen zu kompensieren).
Welch ein Unsinn, zumindest in diesem Zusammenhang.
> Aus diesem Grunde haben die Militaers des vor-vorletzten Jahrhunderts
> auch statt irgendwelcher Buecher spezielle Codebuecher verwendet, die
> zum einen mehr oder weniger gleichverteilten "Unsinn" enthielten, zum
> anderen nur als Kopien zwischen Sender und Empfaenger existierten
> (zumindest solange bis sie geklaut/kopiert wurden).
Das ist völliger Unsinn.
> Die Chiffren, die irgendwelche Buecher natuerlicher Sprache verwendet
> haben, wurden schon in den Anfaengen der Cryptographie gebrochen.
Erzähl mehr.
Du hat mal wieder das Denken vergessen.
Wir haben keinen Code indem in dem irgendein Schlüssel mehrfach vorkommt.
Die Idee, daraus irgendwelche Häufungen erkennen zu können ist schlicht
dumm, die Häufung ist genrell im gesamten Code 1.
Du bräuchtest tausende mit dem selben Buch verschüsselte Stücke um
irgendwann eine Häufung feststellen zu können.
Deine Theorie stimmt nur für den Sonderfall, dass man so blöd ist, für
einzelne Buchstaben immer den selben Standort im Buch zu verwenden und man
genügend chiffrierte Stücke zu Analyse hat.
Ein Buch hat aber von den meisten Buchstaben einige hundert, das reicht eine
Weile, bis es zu gehäuften Wiederholungen kommt, aus denen sich bestimmte
Buchstaben annehmen lassen.
Harald
Hat man heraus, daß Code x/y/z ein "c" im Buch markiert, und findet man
anders wo ein x/y/(z+1), ist die Wahrscheinlichkeit hoch, daß dieses ein "h"
oder "k" darstellt ...
Neben den Multigrammen gibt es auch Statistiken über
Buchstabenwiederholungen etc. pp.
> Juergen P. Meier wrote:
>
>> Die Chiffren, die irgendwelche Buecher natuerlicher Sprache verwendet
>> haben, wurden schon in den Anfaengen der Cryptographie gebrochen.
>
> Erzähl mehr.
Jürgen hat Dich im Filter.
Er wird Dir nichts mehr erzählen.
Schon vergessen?
Claus-Dieter
Das "Buch" ist hier aber nicht Teil des Systems, sondern ein geheimer
Schlüssel.
Wenn ein Angreifer die geheimen Schlüssel kennt, ist jedes andere
Verfahren ebenso unsicher.
Lutz Donnerhacke <lu...@iks-jena.de> wrote:
> * Juergen P. Meier wrote:
> > Aus diesem Grunde haben die Militaers des vor-vorletzten Jahrhunderts
> > auch statt irgendwelcher Buecher spezielle Codebuecher verwendet, die
> Und diese wurden gebrochen, weil die Ungleichverteilung der Tastenanschläge
> der Codebuchtippsen (ein Blatt mit einem Durchschlag) für die Analyse
> ausreichte. Die Tasten in der Mitte der Schreibmaschine werden häufiger
> benutzt, ebenso wie es weniger wahrscheinlich ist, daß ein Finger zweimal
> (oder gar eine Hand zweimal hintereinander) wird.
Hast Du diesbezüglich irgendwelche Quellen an der Hand? Das würde mich
sehr interessieren. Vor allem wüsste ich gerne wie groß die Botschaften
waren und ob irgendwas über den Klartext bekannt war und ob man das
gesammte Codebuch verwendet/ausgeschöpft hat usw.
Viele Grüße,
Martin
Schon klar, aber die Frage ist, wie man _genau das_ herausfinden kann.
ciao Ralph
>* Harald Klotz wrote:
>> Ein Buch hat aber von den meisten Buchstaben einige hundert, das reicht eine
>> Weile, bis es zu gehäuften Wiederholungen kommt, aus denen sich bestimmte
>> Buchstaben annehmen lassen.
>
>Hat man heraus, daß Code x/y/z ein "c" im Buch markiert, und findet man
>anders wo ein x/y/(z+1), ist die Wahrscheinlichkeit hoch, daß dieses ein "h"
>oder "k" darstellt ...
Wenn man so dämlich ist, mehrere Zeichen aus einem Wort für die
Kodierung zu verwenden, dann mag das durchaus zutreffen. Wenn man
aber, wie Jens in <95g52g...@mid.dfncis.de> anmerkt, darauf achtet,
daß die Abstände hinreichend groß sind (indem man z.B. aus einem Satz
jeweils nur ein Zeichen verwendet), dann dürften kaum nutbare
Häufigkeitsanalysen möglich sein.
>Neben den Multigrammen gibt es auch Statistiken über
>Buchstabenwiederholungen etc. pp.
Die nichts bringen, wenn es keine verwertbaren Korrelationen gibt.
Das Verfahren hat große Schwächen (was sich schon daraus ablesen läßt,
daß es im optimalen Fall ein One-Time-Pad ist), die von Dir genannten
Probleme sind aber vermeidbar.
Ciao,
Richard
--
Dr. Richard Könning Heßstraße 63
Tel.: 089/5232488 80798 München
Es gibt viele Möglichkeiten, wie man an einen teilweisen Klartext
kommen kann. Der eigentliche Punkt ist, daß niemand gezwungen ist,
x/y/z+1 zu verwenden, solange das Buch dick genug und die Nachricht
kurz genug ist. Und wenn man die Abstände größer macht, dann dürften
beobachtbare Korrelationen wesentlich schwächer werden.
>Maximilien de Robespierre wrote:
>
>> 2. Der Hinweis mit den Unikaten ist richtig. Ideal sind Schriften, die
>> aufgrund ihrer Einmaligkeit und Seltenheit den meisten Menschen nicht
>> bekannt und zugänglich sind.
>
>Einmalig geht nicht, zweimalig ist minimum.
>Das Buch kann ein zuvor versandter Brief sein, der verschlossen angekommen
>ist.
In einem solchen Fall wird man ein One-Time-Pad verschicken, da das
das bestmögliche "Buch" ist. Die Verwendung eines Buchs mit größerer
Auflage hat gegenüber dem One-Time-Pad den Vorteil, daß der zu
transportierende Schlüssel kleiner als die zu transportierende
Nachricht ist, weil man nur den Titel des Buchs transportieren muß.
>Hier kommt es auf das Umfeld an, wenn Geheimdienste dabei sind, haben die
>andere technische Mglichkeiten den Brief zu lesen.
>
>> 3. Die Bücher wiederum sind streng geheim zu halten.
>
>Je öffentlicher, desto besser.
>Man wird eher im Umfeld der Betreffenden suchen, wenn man erkannt hat, dass
>es ein Buchcode ist.
>Man sollte allerdings keine Internetveröffentlichungen verwenden, allerdings
>clever gemacht, ist das auch kein Problem.
Seitdem Google und Co. im großen Stil Bücher scannen, ist das ein
Problem (von E-Books ganz zu schweigen).
>> Unter diesen Voraussetzungen kann ich nicht erkennen, mit welchen
>> Methoden man eine verschlüsselte Nachricht entschlüsseln können
>> sollte.
>
>Wichtig ist, dass der Angreifer keine Hinweise auf das verwendete Buch
>bekommt.
Die Anzahl der existierenden Bücher ist endlich, jedes in
elektronischer Form vorliegende Buch ist auf jeden Fall unbrauchbar,
mit anderen Worten, die Zahl der grundsätzlich in Frage kommenden
Bücher wird von Jahr zu Jahr geringer und das Einhalten der obigen
Maxime dürfte in der Praxis sehr schwierig werden.
>Lars Gebauer wrote:
>
>>> Was ist daran optimistisch.
>>
>> Das:
>>
>>> Die Vorraussetzung ist, dass der Angreifer sich das Buch nicht
>>> verschaffen kann.
>>
>> Wenn das Buch *tatsächlich* nur in 2 Exemplaren existiert, dann nehme
>> ich gleich ein _richtiges_ OTP.
>
>Die Frage stellt sich hier nicht.
Doch, sie stellt sich, denn in
<4df20667$1$6570$9b4e...@newsspool3.arcor-online.net> willst Du
gegebenenfalls Bücher versenden.
>> Ich würde mich jedenfalls auf nichts
>> verlassen, was auch nur entfernt nach "natürlichsprachig" riecht.
>
>Was riecht denn hier nach natürlichsprachlich?
Bücher, die sich jemand in eine Bibliothek stellt.
>>> Auch wenn das Buch grundsätzlich beschaffbar ist, wie viele
>>> Milliarden gibt es? Täglich erscheinen milliarden Bücher neu! Bücher
>>> im Sinne des Verfahrens.
>>
>> Irrelevant. Bücher wurden und werden schließlich digitalisiert.
>
>ROTFL.
>
>Erst einmal musst du begreifen, dass Buch im Sinne dieses Verfahrens jedes
>beliebige Schriftstück ist, zum zweiten, musst das digitalierte Buch exact
>dem Verwendeten entsprechen, die gleichen Umbrüche, die gleichen
>Seitennummerierung etc.
Ja und? Auch da gibt es nur endlich viele Varianten (und Sender und
Empfänger müssen im Besitz einer identischen Variante sein).
>Und selbst wenn das Buch digitalisiert vorliegt, muss es dem Angreifer auch
>vorliegen.
Wenn das Verfahren nicht nur vor der kleinen Schwester schützen soll,
dann kann man davon ausgehen, daß jedes digitalisierte Buch, das nicht
als OTP erstellt wurde, dem Angreifer vorliegt und damit nicht
verwendbar ist.
>> Ein Buch hat aber von den meisten Buchstaben einige hundert, das reicht eine
>> Weile, bis es zu gehäuften Wiederholungen kommt, aus denen sich bestimmte
>> Buchstaben annehmen lassen.
>
> Hat man heraus, daß Code x/y/z ein "c" im Buch markiert, und findet man
> anders wo ein x/y/(z+1), ist die Wahrscheinlichkeit hoch, daß dieses ein "h"
> oder "k" darstellt ...
Ordnungsgemässe Buchverschlüsselung nutzt keine Buchkoordinate doppelt
und nutzt damit ein OTP welches wesentlich länger als die Nachricht ist.
Bernd
--
Wenn Frauen nicht wissen was sie machen sollen, ziehen sie sich aus ...
Und wenn Männer nicht wissen, was sie machen sollen, dann schauen sie
sich Frauen an, die nicht wussten, was sie machen sollen ...
>> Je öffentlicher, desto besser.
>> Man wird eher im Umfeld der Betreffenden suchen, wenn man erkannt
>> hat, dass es ein Buchcode ist.
>> Man sollte allerdings keine Internetveröffentlichungen verwenden,
>> allerdings clever gemacht, ist das auch kein Problem.
>
> Seitdem Google und Co. im großen Stil Bücher scannen, ist das ein
> Problem (von E-Books ganz zu schweigen).
Und warum sollte man ein von Google gescanntes Buch verwenden wollen?
Wie viele Millionen Zeitungen/Zeitschriften erscheinen täglich?
Auf welche Zeitung hätte man Zugiff auf eine 1 zu 1 digitale Kopie?
>> Wichtig ist, dass der Angreifer keine Hinweise auf das verwendete
>> Buch bekommt.
>
> Die Anzahl der existierenden Bücher ist endlich, jedes in
> elektronischer Form vorliegende Buch ist auf jeden Fall unbrauchbar,
Nein.
> mit anderen Worten, die Zahl der grundsätzlich in Frage kommenden
> Bücher wird von Jahr zu Jahr geringer und das Einhalten der obigen
> Maxime dürfte in der Praxis sehr schwierig werden.
Nein, es werden täglich mehr.
Täglich erscheinen wie viele Millionen Zeitungungen neu.
Göthe mag vielleicht nicht die richtige Basis sein.
Du hast natürlich Recht, die typischen Klassiker taugen nicht oder wenig.
Nimm 2 oder 3 Bücher, 1 Bushtabe Buchstabe Buch 1.........
Es muss ja nicht ein einziges Buch für den Text herhalten.
Oder ein anderes Verfahren, der Text ergibst Schlüsselnummern, mit dem man
aus einen 2. Buch erst den Klartext herausbekommst.
Du kannst die Tiefe beliebig erweitern.
Und beachte, die Sicherheit muss nur solange währen bis die Geschichte das
Geheimnis überholt hat.
Harald
Das ist sein Problem, allerdings sagt mir meine Erfahrung, dass solche Leute
es meist nicht schaffen ihren Filter zu konfigurieren.
Harald
Interessant ist die Frage, wie bekommt man es heraus.
> und findet
> man anders wo ein x/y/(z+1), ist die Wahrscheinlichkeit hoch, daß
> dieses ein "h" oder "k" darstellt ...
Du meinst im ernst ich würde x/y/(z+1) verwenden?
Erstens bekommst du ersteres nicht heraus, zweitens werden niemals
nebeneinanderstehende Buchstaben Verwendung finden.
> Neben den Multigrammen gibt es auch Statistiken über
> Buchstabenwiederholungen etc. pp.
ROTFL, du hast das Verfahren nicht im Geringsten verstanden.
Im Schlüsselcode gibt es keine 2 identischen Codes und auch keine
nebeneinanander liegenden.
Harald
Obiges ist nicht doppelt.
Ist das Buch nicht geheim (und nicht nur der Titel), so ist das
Verfahren unsicher:
Google Books zeigt, wie man Bücher digitalisiert. Ein Angriff wird
versuchen Bücher zu identifizieren, bei denen die Buchkoordinaten
gültige Wörter oder gar Sätze geben. So viele sind das nicht, und die
Bedeutung macht den Rest.
Buch-Verschlüsselung ist nur solange sicher, solange es sich um geheime
(Code-)Bücher handelt.
Viele Grüsse,
VB.
--
Bitte beachten Sie auch die Rückseite dieses Schreibens!
Und selbst ein unbekanntes Buch in natuerlicher Sprache* ist unsicher.
* Ausser Finniscch.
> ROTFL, du hast das Verfahren nicht im Geringsten verstanden.
> Im Schlüsselcode gibt es keine 2 identischen Codes und auch keine
> nebeneinanander liegenden.
Aber auch keine zufälligen. Und damit ist es kein OTP.
Vinzent.
--
f u cn rd ths, u cn gt a gd jb n cmptr prgrmmng.
> Lutz Donnerhacke wrote:
>> * Harald Klotz wrote:
>>> Ein Buch hat aber von den meisten Buchstaben einige hundert, das
>>> reicht eine Weile, bis es zu gehäuften Wiederholungen kommt, aus
>>> denen sich bestimmte Buchstaben annehmen lassen.
>>
>> Hat man heraus, daß Code x/y/z ein "c" im Buch markiert,
>
> Interessant ist die Frage, wie bekommt man es heraus.
Nun, known plaintext ist ein mögliches Angriffszenario. Du darfst jetzt selber
auswürfeln, weswegen Lutz es angeführt haben könnte...
>> und findet
>> man anders wo ein x/y/(z+1), ist die Wahrscheinlichkeit hoch, daß
>> dieses ein "h" oder "k" darstellt ...
>
> Du meinst im ernst ich würde x/y/(z+1) verwenden?
Du verwendest halt was, das alles andere als zufällig ist. Und ja, der bias
scheint ggf. durch.
Achja. Achte bitte darauf, auch maximal die ersten paar Seiten zu verwenden.
Wenn der Angreifer eruieren kann, dass das Buch minimal 450 Seiten haben muss
dann schränkt das die möglichen Bücher schon ein wenig ein.
Abgesehen davon, klar, wenn Du aus 500 Seiten 100bit generierst dann ist das
sicherlich "sicher". Nur, warum solltest Du das tun wollen, wenn Du Dir die
100 bit auf 1/4 Seite notieren kannst?
--
CASE NIGHTMARE BLUE
> Claus-Dieter Schulmann wrote:
>> Harald Klotz wrote:
>>
>>> Juergen P. Meier wrote:
>>>
>>>> Die Chiffren, die irgendwelche Buecher natuerlicher Sprache
>>>> verwendet haben, wurden schon in den Anfaengen der Cryptographie
>>>> gebrochen.
>>>
>>> Erzähl mehr.
>>
>> Jürgen hat Dich im Filter.
>> Er wird Dir nichts mehr erzählen.
>> Schon vergessen?
>
> Das ist sein Problem,
Ich bezweifle sehr stark, das Juergen das als "Problem" sieht. Ich vermute
mal, aus seiner Sicht ist das Ganze eher eine Problemlösung.
> allerdings sagt mir meine Erfahrung, dass solche Leute
> es meist nicht schaffen ihren Filter zu konfigurieren.
An Deiner Stelle würde ich schleunigst professionelle Hilfe suchen. Erfahrung
die zu einem spricht deutet auf irgendwas schizoides hin...
--
CASE NIGHTMARE BLUE
> Und selbst ein unbekanntes Buch in natuerlicher Sprache* ist unsicher.
Erzähl mehr.
Kannst du mehr als hohle Sprüche klopfen?
Harald
Ich sag ja, du hast es nicht verstanden.
Harald
Findest du nicht, dass du dich lächerkich machst?
Harald
> Ist das Buch nicht geheim (und nicht nur der Titel), so ist das
> Verfahren unsicher:
>
> Google Books zeigt, wie man Bücher digitalisiert. Ein Angriff wird
> versuchen Bücher zu identifizieren, bei denen die Buchkoordinaten
> gültige Wörter oder gar Sätze geben. So viele sind das nicht, und die
> Bedeutung macht den Rest.
Erst einmal musst du herausbekommen, wie du die Koodinaten lesen musst.
Du unterstellst maximale Blödheit beim Kodierer.
Harald
>>> Hat man heraus, daß Code x/y/z ein "c" im Buch markiert,
>>
>> Interessant ist die Frage, wie bekommt man es heraus.
>
> Nun, known plaintext ist ein mögliches Angriffszenario. Du darfst
> jetzt selber auswürfeln, weswegen Lutz es angeführt haben könnte...
ROTFL
Wenn ich den Text kenne muss ich in nicht entschlüsseln.
Ich schätze, du setzt falsche Voraussetzungen, mehrfachverwendung des selben
Buches, Bekanntheit des Schlüsselcodes.
>>> und findet
>>> man anders wo ein x/y/(z+1), ist die Wahrscheinlichkeit hoch, daß
>>> dieses ein "h" oder "k" darstellt ...
>>
>> Du meinst im ernst ich würde x/y/(z+1) verwenden?
>
> Du verwendest halt was, das alles andere als zufällig ist. Und ja,
> der bias scheint ggf. durch.
> Achja. Achte bitte darauf, auch maximal die ersten paar Seiten zu
> verwenden. Wenn der Angreifer eruieren kann, dass das Buch minimal
> 450 Seiten haben muss dann schränkt das die möglichen Bücher schon
> ein wenig ein.
Woher erkennt der Angreifer die Seitenzahl?
Du setzt vorraus, dass der Code exakt einem dir bekannten Scham folgt.
Klar, wenn ich Schreibe, Seite 10, Wort 25, Buchstabe 3 und so fort.
Du setzt eine gewisse Blödheit des Kodierers vorraus.
Wenn ich aber Schreibe 917366726788989323, woher willst du erkennen, dass es
vorgenanntes bedeutet?
Du vergisst, dass der Code selbst noch nach irgendener Regel verschlüsselt
sein kann, du verkennst, dass selbst bei Kenntnis dieses Schlüssels, ein
weiterer Schlüssel die Reihenfolge des Buchstaben bestimmen kann.
> Abgesehen davon, klar, wenn Du aus 500 Seiten 100bit generierst dann
> ist das sicherlich "sicher". Nur, warum solltest Du das tun wollen,
> wenn Du Dir die 100 bit auf 1/4 Seite notieren kannst?
Um die Frage geht es nicht.
Harald
Frag mal Herr Kerckhoffs.
Gruss
Bernd
>Volker Birk wrote:
>
>> Ist das Buch nicht geheim (und nicht nur der Titel), so ist das
>> Verfahren unsicher:
>>
>> Google Books zeigt, wie man Bücher digitalisiert. Ein Angriff wird
>> versuchen Bücher zu identifizieren, bei denen die Buchkoordinaten
>> gültige Wörter oder gar Sätze geben. So viele sind das nicht, und die
>> Bedeutung macht den Rest.
>
>Erst einmal musst du herausbekommen, wie du die Koodinaten lesen musst.
Nach Kerckhoffs' Maxime ist das als bekannt anzunehmen.
>Richard W. Könning <Richard....@t-online.de> wrote:
>> Die Verwendung eines Buchs mit größerer
>> Auflage hat gegenüber dem One-Time-Pad den Vorteil, daß der zu
>> transportierende Schlüssel kleiner als die zu transportierende
>> Nachricht ist, weil man nur den Titel des Buchs transportieren muß.
>
>Ist das Buch nicht geheim (und nicht nur der Titel), so ist das
>Verfahren unsicher:
>
>Google Books zeigt, wie man Bücher digitalisiert. Ein Angriff wird
>versuchen Bücher zu identifizieren, bei denen die Buchkoordinaten
>gültige Wörter oder gar Sätze geben. So viele sind das nicht, und die
>Bedeutung macht den Rest.
>
>Buch-Verschlüsselung ist nur solange sicher, solange es sich um geheime
>(Code-)Bücher handelt.
Solange die Bücher nicht in digitalisierter Form vorliegen und etwas
exotischer sind, dann kann es schon etwas dauern, bis der Code geknack
ist. Beim Code des Herrn zu Guttenberg hat es ja auch ein bisschen
länger gedauert... ;-).
>AOL - das würde mich auch interessieren. Ich kannte bisher nur die Variante,
>die Codebücher z.B. aus empfangenem Antennenrauschen in irgendwelchen nicht
>benutzten Frequenzbändern zu generieren; nicht durch menschliche
>(Pseudozufalls-) Tipparbeit.
In Bauers "Entzifferte Geheimnisse" auf Seite 118 gibt es ein
entsprechendes Zitat bzgl. russischer, durch menschliche
Schreibmaschinenbediener generierte, One-Time-Pads aus Kahns "The
Codebreakers", leider ohne Seitenangabe, und auf die Schnelle konnte
ich auch nicht die Seite herausfinden.
>Dietz Proepper wrote:
>
>>>> Hat man heraus, daß Code x/y/z ein "c" im Buch markiert,
>>>
>>> Interessant ist die Frage, wie bekommt man es heraus.
>>
>> Nun, known plaintext ist ein mögliches Angriffszenario. Du darfst
>> jetzt selber auswürfeln, weswegen Lutz es angeführt haben könnte...
>
>ROTFL
>Wenn ich den Text kenne muss ich in nicht entschlüsseln.
Es gibt durchaus Situationen, in denen man mindestens Teile des Textes
kennt. Im zweiten Weltkrieg haben die Engländer z.B. Bojen versenkt,
um "know plaintext" zu generieren.
>Ich schätze, du setzt falsche Voraussetzungen, mehrfachverwendung des selben
>Buches, Bekanntheit des Schlüsselcodes.
Richtig, um "known plaintext"-Angriffe zu verhindern, darf man nicht
ein Buch oder auch nur Teile eines Buchs mehrfach verwenden.
>> Abgesehen davon, klar, wenn Du aus 500 Seiten 100bit generierst dann
>> ist das sicherlich "sicher". Nur, warum solltest Du das tun wollen,
>> wenn Du Dir die 100 bit auf 1/4 Seite notieren kannst?
>
>Um die Frage geht es nicht.
Dietz will evtl. andeuten, daß das Verschicken eines bedeutend
kleineren One-Time-Pads einfacher ist. Das stimmt natürlich nur, wenn
man ansonsten vorhat, ein dickes Buch zu versenden, anstatt darauf zu
setzen, daß das Buch schon beim Empfänger vorhanden ist.
>> Wenn ich den Text kenne muss ich in nicht entschlüsseln.
>
> Es gibt durchaus Situationen, in denen man mindestens Teile des Textes
> kennt. Im zweiten Weltkrieg haben die Engländer z.B. Bojen versenkt,
> um "know plaintext" zu generieren.
Das hat Funtioniert?
Es setzt vorraus, dass die Meldungen identisch sind und für jede Meldung das
selbe Buch verwendet wird.
Wenn ich nicht irre, waren die ersten Enigmas noch so aufgebaut.
>> Ich schätze, du setzt falsche Voraussetzungen, mehrfachverwendung
>> des selben Buches, Bekanntheit des Schlüsselcodes.
>
> Richtig, um "known plaintext"-Angriffe zu verhindern, darf man nicht
> ein Buch oder auch nur Teile eines Buchs mehrfach verwenden.
Richtig, ich setze vorraus, dass das bekannt ist und auch nicht gemacht
wird.
>>> Abgesehen davon, klar, wenn Du aus 500 Seiten 100bit generierst dann
>>> ist das sicherlich "sicher". Nur, warum solltest Du das tun wollen,
>>> wenn Du Dir die 100 bit auf 1/4 Seite notieren kannst?
>>
>> Um die Frage geht es nicht.
>
> Dietz will evtl. andeuten, daß das Verschicken eines bedeutend
> kleineren One-Time-Pads einfacher ist. Das stimmt natürlich nur, wenn
> man ansonsten vorhat, ein dickes Buch zu versenden, anstatt darauf zu
> setzen, daß das Buch schon beim Empfänger vorhanden ist.
Das Buch kann der voher gesandte Text sein.
Es geht ja auch nicht um die Frage was einfacher ist.
Es geht um die Frage der Knackbarkeit.
Harald
Nein, aber da Du weder Know-Plaintext- noch Chosen-Plaintext-Angriffe
kennst, unterstelle ich Dir maximale Unwissenheit in Sachen
Kryptographie.
Für die Tatsache, dass Du so gar keine Ahnung hast, zeigst Du hier eine
grosse Klappe und ziemliche Lernresistenz. An Deiner Stelle würde ich
erst einmal zuhören.
Stimmt, aber die "Buch-Verschluesselung" kommt dennoch an die Sicherheit
eines OTP heran, wenn man darauf achtet, eben nur Zeichen aus dem Buch
zu verwenden, die "hinreichend weit voneinander entfernt" sind (das ver-
hindert die von Lutz angesprochene Analyse, wie bereits jemand anders
erwaehnt hat). Im Endeffekt darf man also nur einen kleinen Teil des
Buches wirklich als Code verwenden, um Sicherheit zu gewaehrleisten.
Tschuess,
Juergen Ilse (jue...@usenet-verwaltung.de)
--
Ein Domainname (auch wenn er Teil einer Mailadresse ist) ist nur ein Name,
nicht mehr und nicht weniger ...
>>Buch-Verschlüsselung ist nur solange sicher, solange es sich um geheime
>>(Code-)Bücher handelt.
> Beim Code des Herrn zu Guttenberg hat es ja auch ein bisschen
> länger gedauert.
Das mag jetzt witzig sein, hat aber mit der Diskussion um die
Brauchbarkeit der hier beleuchteten Methode nicht sehr viel zu tun. ;-)
ciao Ralph
P.S.: Falls sich jemand in der Praxis beweisen möchte, konstruiere ich
gern eine zu dekodierende Nachricht, die mit einem Buch mit Auflage >
1000 verschlüsselt würde.
Da ich bisher in der Regel davon ausgegangen bin, dass Du wenigstens
ungefähr weißt, wovon Du redest resp. schreibst, habe ich - da ich mich
auf diesem Gebiet wirklich nicht zu den Spezialisten/Gurus zählen kann -
gerade zur Sicherheit nochmal nachgelesen, was man unter Know-Plaintext-
und Chosen-Plaintext-Angriff eigentlich versteht.
Nein, nicht in der Bild, sondern bei Schneier.
Ergebnis: Im Rahmen _dieser Diskussion_ ist Dein obiges Argument -
freundlich ausgedrückt - Bullshit-Bingo. Du hast schlicht das Thema
verfehlt.
Tipp: Ein bisschen Bescheidenheit in Verbindung mit dem Bedürfnis, vor
unüberlegten, großmäuligen Posts in Disputen wie diesem die eigenen
Wissenslücken zu schließen, hat noch niemandem geschadet.
> Dietz Proepper wrote:
>
>>>> Hat man heraus, daß Code x/y/z ein "c" im Buch markiert,
>>>
>>> Interessant ist die Frage, wie bekommt man es heraus.
>>
>> Nun, known plaintext ist ein mögliches Angriffszenario. Du darfst
>> jetzt selber auswürfeln, weswegen Lutz es angeführt haben könnte...
>
> ROTFL
> Wenn ich den Text kenne muss ich in nicht entschlüsseln.
Auch ein Standpunkt.
> Ich schätze, du setzt falsche Voraussetzungen, mehrfachverwendung des selben
> Buches, Bekanntheit des Schlüsselcodes.
Ich denke, Du hast keinerlei Ahnung von Cryptografie.
--
CASE NIGHTMARE BLUE
>> Ich schätze, du setzt falsche Voraussetzungen, mehrfachverwendung des selben
>> Buches, Bekanntheit des Schlüsselcodes.
>
> Ich denke, Du hast keinerlei Ahnung von Cryptografie.
Ich denke, dass die Diskussion mal wieder abgleitet zu der Frage, wer
den längeren hat. Schade eigentlich, aber es war eigentlich nichts
anderes zu erwarten.
ciao Ralph
Jaja, Herr "Dummenfang", "freundlich ausgedrückt".
Aus <4df56195$0$6541$9b4e...@newsspool4.arcor-online.net>
| Dietz Proepper wrote:
| >>> Hat man heraus, daß Code x/y/z ein "c" im Buch markiert,
| >> Interessant ist die Frage, wie bekommt man es heraus.
| > Nun, known plaintext ist ein mögliches Angriffszenario. Du darfst
| > jetzt selber auswürfeln, weswegen Lutz es angeführt haben könnte...
| ROTFL
| Wenn ich den Text kenne muss ich in nicht entschlüsseln.
Zur Schwäche der Buchverschlüsselung zählt, dass sie u.a. gegen
Know-Plaintext nicht sicher ist. Buchverschlüsselung ist geradezu der
Klassiker für Known-Plaintext-Angriffe. Aber Du hast natürlich eine
genauso grosse Klappe wie der von mir kritisierte, und mit noch weniger
Grund dazu. Du darfst deshalb meine Kritik auch gerne auf Dich selbst
beziehen.
Und der nächste Inkompetenz-Beweis. Und das, nachdem Du eben noch
behauptetest, Du habest Schneier gelesen.
Ich schätze, Du hast nicht nur keinerlei Ahnung von Kryptographie,
sondern Du glänzt dazu wieder durch Lernresistenz, wie üblich. Diesmal
wohl besser unbefristet.
*PLATSCH*
Du bist Dir hoffentlich wenigstens darüber im Klaren, wie toll
sachkundig es 'rüberkommt, wenn man den Namen bzw. der E-Mail-Adresse
anderer Diskutanten als Argument bringt?
Gab's mal irgendein Law, aber das nachzulesen fehlt mir die Zeit. ;-)
Da Du mich jetzt im Filter hast, werde ich - genauso wie alle anderen
hier - wohl vergeblich darauf warten, dass Du Deine Behauptung auch
irgendwie begründest.
Aber das ist nicht weiter schlimm, damit rechnen tut wahrscheinlich
ohnehin fast keiner.
Hättest Du mich nicht im Filter, würde ich Dich jetzt bitten, aus dem
obigen Zitat konkrete Anhaltspunkte für meine angebliche Lernresistenz
abzuleiten. Aber auch ohne Deine Analyse werde ich genau so wie bisher
meine Fachkenntnisse über Gott, die IT und die sonstige Welt
vertrauensvoll den Boulevard-Blättern dieser Republik entnehmen und dann
hier regelmäßig erklären, dass _nur ich_ alles über _jedes Thema_ weiß
und _alle anderen_ zwangsläufig _Idioten_ sind. :-p
Man hat ja seine Vorbilder! :-D
> Diesmal
> wohl besser unbefristet.
> *PLATSCH*
Das ist ganz allein Deine Entscheidung. Und es ist mir - ehrlich gesagt
- auch ziemlich egal. ;-)
Es gibt keine /zufälligen/. Das ist Grundvoraussetzung.
Vinzent.
--
f u cn rd ths, u cn gt a gd jb n cmptr prgrmmng.
> Woher erkennt der Angreifer die Seitenzahl?
>
> Du setzt vorraus, dass der Code exakt einem dir bekannten Scham folgt.
> Klar, wenn ich Schreibe, Seite 10, Wort 25, Buchstabe 3 und so fort.
> Du setzt eine gewisse Blödheit des Kodierers vorraus.
> Wenn ich aber Schreibe 917366726788989323, woher willst du erkennen, dass es
> vorgenanntes bedeutet?
> Du vergisst, dass der Code selbst noch nach irgendener Regel verschlüsselt
> sein kann, du verkennst, dass selbst bei Kenntnis dieses Schlüssels, ein
> weiterer Schlüssel die Reihenfolge des Buchstaben bestimmen kann.
Wenn man Kryptoanalyse macht, geht man davon aus, dass der Angreifer das
Kryptosystem kennt, und nur den geheimen Schlüssel nicht.
(Das ist Kerkhoffs Prinzip, wie schon von einigen erwähnt.)
Wenn ich es richtig verstehe, ist hier der geheime Schlüssel die exakte
Auswahl des Buches.
Wenn du mehrere Systeme miteinander verbinden willst (etwa den Code noch
einmal verschlüsseln), dann ergibt das ein neues System, das wir gerne
auch analysieren können - aber dazu solltest du das System bitte genau
definieren.
Paul
Das sind dann schon ganze Absaetze. D.h. mit einem Taschenbuch von 250
Seiten kannst du gerade mal knapp 500 Zeichen kodieren. Sofern der Angreifer
nicht einfach das Buch erraet (oder einfach alle ihm bekannten Buecher
durchprobiert).
500 Zeichen sind verdammt wenig. Und das ist ein dickes Taschenbuch,
das den Suchrraum fuer den "Woerterbuchangriff" (hr hr hr) nochmal
deutlich einschraenkt.
> hindert die von Lutz angesprochene Analyse, wie bereits jemand anders
> erwaehnt hat). Im Endeffekt darf man also nur einen kleinen Teil des
> Buches wirklich als Code verwenden, um Sicherheit zu gewaehrleisten.
Wenn du den Kodierungs-Algorithmus nicht sorgfaeltig auswaehlst,
passiert es dir, dass deine Entropie wegen einiger fuer diese
Vershchluesselung im speziellen unangenehmen Eigenschaften
natuerlicher Sprache vor die Hunde geht. Und wenn du das tust,
erlaubst du damit dummerweise eine Mustersuche nach dem passenden Buch
(Absatzlaenge, Seitenzahl, Kapitelorganisation etc. laesst sich aus
den Luecken, die dein Algorithmus lassen muss damit er nicht zu
leicht knackbar ist, ableiten, damit schraenkt man den Suchraum in der
wiederum Liteartur gewaltig ein, so dass der Angreifer das richtige
Buch deutlich leichter finden kann).
Diese Verschluesslungsart ist nicht umsonst anachronistisch und
heute praktisch wertlos.
Das Problem sind verschiedene Analysen, wenn du versuchst etwas gegen
eine davon zu tun (z.B. groessere Luecken lassen) dann erleichterst du
damit automatisch die anderen - und umgekehrt.
Und das alles um nichtmal 150 Woerter zu verschluesseln? Witzlos.
Juergen
--
Juergen P. Meier - "This World is about to be Destroyed!"
end
If you think technology can solve your problems you don't understand
technology and you don't understand your problems. (Bruce Schneier)
[Unsinn]
> Ich denke, Du hast keinerlei Ahnung von Cryptografie.
Auch schon bemerkt?
fup2p,
Das Buch ist der "geheime" Schluessel.
Dummerweise sind Buecher zum einen idR. nicht geheim, zum anderen
enthalten sie keine Zufallszeichenfolgen sondern natuerliche Sprache.
Letzteres eignet sich als Schluessel zum Chiffrieren ungefaher so gut
wie ROT13 als Algorithmus.
Juergen
>Richard W. Könning wrote:
>
>>> Wenn ich den Text kenne muss ich in nicht entschlüsseln.
>>
>> Es gibt durchaus Situationen, in denen man mindestens Teile des Textes
>> kennt. Im zweiten Weltkrieg haben die Engländer z.B. Bojen versenkt,
>> um "know plaintext" zu generieren.
>
>Das hat Funtioniert?
Afaik ja.
>Es setzt vorraus, dass die Meldungen identisch sind und für jede Meldung das
Zumindestens einige Teile der Meldungen waren vorhersagbar, die
Position/Bezeichnung der Boje dürfte jeweils verschieden gewesen sein.
>selbe Buch verwendet wird.
>Wenn ich nicht irre, waren die ersten Enigmas noch so aufgebaut.
>[...]
>
>>>> Abgesehen davon, klar, wenn Du aus 500 Seiten 100bit generierst dann
>>>> ist das sicherlich "sicher". Nur, warum solltest Du das tun wollen,
>>>> wenn Du Dir die 100 bit auf 1/4 Seite notieren kannst?
>>>
>>> Um die Frage geht es nicht.
>>
>> Dietz will evtl. andeuten, daß das Verschicken eines bedeutend
>> kleineren One-Time-Pads einfacher ist. Das stimmt natürlich nur, wenn
>> man ansonsten vorhat, ein dickes Buch zu versenden, anstatt darauf zu
>> setzen, daß das Buch schon beim Empfänger vorhanden ist.
>
>Das Buch kann der voher gesandte Text sein.
>Es geht ja auch nicht um die Frage was einfacher ist.
Nach meinem Eindruck geht es Dietz schon darum ("warum solltest Du das
tun wollen"), denn die Sicherheit hat er nicht in Abrede gestellt.
>Es geht um die Frage der Knackbarkeit.
Nicht nur.
>Paul Ebermann <Paul-E...@gmx.de>:
>> (Das ist Kerkhoffs Prinzip, wie schon von einigen erwähnt.)
>>
>> Wenn ich es richtig verstehe, ist hier der geheime Schlüssel die exakte
>> Auswahl des Buches.
>
>Das Buch ist der "geheime" Schluessel.
>
>Dummerweise sind Buecher zum einen idR. nicht geheim, zum anderen
Das ist das Hauptproblem.
>enthalten sie keine Zufallszeichenfolgen sondern natuerliche Sprache.
Das ist wiederum kaum ein Problem, wenn die Entnahmestellen
hinreichend weit auseinanderliegen und ein Buch nicht wiederverwendet
wird. Sprache bestimmt zwar die Buchstabenverteilung innerhalb von
Wörtern und Grammatik definiert einige Regeln für die Anordnung von
Wörtern, aber die Anordnung von Sätzen (und die darin jeweils
enthaltenen Wörter) fallen unter künstlerische Freiheit.
>Harald Klotz wrote:
>
>> Vinzent Hoefler wrote:
>>> Harald Klotz wrote:
>>>
>>>> ROTFL, du hast das Verfahren nicht im Geringsten verstanden.
>>>> Im Schlüsselcode gibt es keine 2 identischen Codes und auch keine
>>>> nebeneinanander liegenden.
>>>
>>> Aber auch keine zufälligen. Und damit ist es kein OTP.
>>
>> Ich sag ja, du hast es nicht verstanden.
>
>Es gibt keine /zufälligen/. Das ist Grundvoraussetzung.
Ich gebe Harald Recht, daß Du das Verfahren nicht verstanden hast. Die
Auswahl einer Zeichenposition wird man vernünftigerweise zufällig
machen (bei selten vorkommenden Buchstaben sind die Freiheiten hierfür
allerdings geringer), d.h. im Vergleich zu einem klassischen OTP kommt
der Zufall nur auf andere Weise ins Spiel.
>Juergen Ilse <il...@usenet-verwaltung.de>:
>> Stimmt, aber die "Buch-Verschluesselung" kommt dennoch an die Sicherheit
>> eines OTP heran, wenn man darauf achtet, eben nur Zeichen aus dem Buch
>> zu verwenden, die "hinreichend weit voneinander entfernt" sind (das ver-
>
>Das sind dann schon ganze Absaetze. D.h. mit einem Taschenbuch von 250
>Seiten kannst du gerade mal knapp 500 Zeichen kodieren. Sofern der Angreifer
>nicht einfach das Buch erraet (oder einfach alle ihm bekannten Buecher
>durchprobiert).
>500 Zeichen sind verdammt wenig. Und das ist ein dickes Taschenbuch,
>das den Suchrraum fuer den "Woerterbuchangriff" (hr hr hr) nochmal
>deutlich einschraenkt.
Das hat niemand bestritten, und deswegen macht das Verschicken von
Büchern keinen Sinn, weil man dann deutlich mehr transportieren muß
als bei einem klassischen OTP. Wenn aber Sender und Empfänger beide
über einen ausgesuchten (soll heißen, der Angreifer kennt die
betreffenden Bücher nicht), aber hinreichend identischen
Literaturgeschmack verfügen, dann kann die zu transportierende
Schlüsselmenge geringer als bei einem OTP sein.
>> hindert die von Lutz angesprochene Analyse, wie bereits jemand anders
>> erwaehnt hat). Im Endeffekt darf man also nur einen kleinen Teil des
>> Buches wirklich als Code verwenden, um Sicherheit zu gewaehrleisten.
>
>Wenn du den Kodierungs-Algorithmus nicht sorgfaeltig auswaehlst,
>passiert es dir, dass deine Entropie wegen einiger fuer diese
>Vershchluesselung im speziellen unangenehmen Eigenschaften
>natuerlicher Sprache vor die Hunde geht. Und wenn du das tust,
Wichtig hierfür ist, daß man keine Buchstabenpositionen innerhalb von
Wörtern angibt, die Buchstabenposition innerhalb einer Zeile ist schon
deutlich besser, aber insbesondere im Anfangsbereich einer Zeile noch
kritisch, da hier Zeilenposition gleich Wordposition ist, wenn die
Zeile vorher nicht mit einer Worttrennung endet. Mit entsprechendem
Aufwand lassen sich noch bessere Positionskodierungsmethoden finden,
die allerdings aufwendiger in der Anwendung sein dürften.
>erlaubst du damit dummerweise eine Mustersuche nach dem passenden Buch
>(Absatzlaenge, Seitenzahl, Kapitelorganisation etc. laesst sich aus
>den Luecken, die dein Algorithmus lassen muss damit er nicht zu
Die Lücken können fast beliebig groß sein, es gibt keinen Zwang, die
Zeichen konsekutiv zu entnehmen. Außerdem kann man Seitenzahlen
angeben, die jeweils modulo Seitenzahl des verwendeten Buchs zu
interpretieren sind.
>leicht knackbar ist, ableiten, damit schraenkt man den Suchraum in der
>wiederum Liteartur gewaltig ein, so dass der Angreifer das richtige
>Buch deutlich leichter finden kann).
Wenn die Bücher in elektronischer Form vorliegen, dann braucht man
eine solche Mustersuche nicht, man wendet einfach die
Dekodierungsvorschrift auf jedes einzelne Buch an und schaut, ob ein
vernünftiger Text herauskommt.
>Diese Verschluesslungsart ist nicht umsonst anachronistisch und
>heute praktisch wertlos.
Das liegt aber eher daran, daß es mit der Verfügbarkeit geeigneter
Bücher eher schlecht aussieht.
>Das Problem sind verschiedene Analysen, wenn du versuchst etwas gegen
>eine davon zu tun (z.B. groessere Luecken lassen) dann erleichterst du
>damit automatisch die anderen - und umgekehrt.
Nein. Mit größeren Lücken erhöht man den Bücherbedarf pro 1000 Zeichen
zu verschlüsselndem Text, aber nicht die Identifizierbarkeit der
Bücher.
>Und das alles um nichtmal 150 Woerter zu verschluesseln? Witzlos.
Ja, weil es mittlerweile Verfahren gibt, die einfacher in der
Handhabung sind und gleichzeitig sicherer. Aber ich hatte auch nicht
den Eindruck, daß der OP AES durch dieses Verschlüsselungsverfahren
ablösen wollte.
>Am 13.06.2011 05:52, schrieb Richard W. Könning:
>> Volker Birk <bum...@dingens.org> wrote:
>
>>>Buch-Verschlüsselung ist nur solange sicher, solange es sich um geheime
>>>(Code-)Bücher handelt.
>
>> Beim Code des Herrn zu Guttenberg hat es ja auch ein bisschen
>> länger gedauert.
>
>Das mag jetzt witzig sein, hat aber mit der Diskussion um die
>Brauchbarkeit der hier beleuchteten Methode nicht sehr viel zu tun. ;-)
Doch, hat es, da ein Plagiator das gleiche Problem hat: der
"Angreifer" darf nicht erkennen, welche Veröffentlichung evtl. hinter
einem nicht als Zitat gekennzeichneten Textbestandteil steht. Und
nicht ohne Grund hat es bei den Dissertationsteilen länger gedauert,
bei denen nicht allgemein veröffentlichte Texte des wissenschaftlichen
Dienstes des Bundestags verwendet wurden.
In der Prä-Google-Zeit hätte zu Guttenberg sehr wahrscheinlich größere
Chancen gehabt, daß zumindestens nicht das komplette Ausmaß seines
Plagiats erkannt worden wäre.
D.h. die Bücher müssen nicht unbeding geheim sein, sie sollten dem
Angreifer aber nicht in elektronischer Form zur Verfügung stehen.
>Ralph Lehmann <in...@dummenfang.info> wrote:
>> Ergebnis: Im Rahmen _dieser Diskussion_ ist Dein obiges Argument -
>> freundlich ausgedrückt - Bullshit-Bingo. Du hast schlicht das Thema
>> verfehlt.
>
>Jaja, Herr "Dummenfang", "freundlich ausgedrückt".
>
>Aus <4df56195$0$6541$9b4e...@newsspool4.arcor-online.net>
>| Dietz Proepper wrote:
>| >>> Hat man heraus, daß Code x/y/z ein "c" im Buch markiert,
>| >> Interessant ist die Frage, wie bekommt man es heraus.
>| > Nun, known plaintext ist ein mögliches Angriffszenario. Du darfst
>| > jetzt selber auswürfeln, weswegen Lutz es angeführt haben könnte...
>| ROTFL
>| Wenn ich den Text kenne muss ich in nicht entschlüsseln.
>
>Zur Schwäche der Buchverschlüsselung zählt, dass sie u.a. gegen
>Know-Plaintext nicht sicher ist. Buchverschlüsselung ist geradezu der
>Klassiker für Known-Plaintext-Angriffe.
Warum? Daß man Bücher nicht wiederverwendet, ist im Thread häufig
genug betont worden (daß der Umfang der Empfänger-Bibliothek dann
gewisse Grenzen bzgl. der verschlüsselbaren Nachrichtenmenge
impliziert, ist ein anderes Thema).
> Hallo,
>
> Juergen P. Meier <nospa...@jors.net> wrote:
>> Bernd Hohmann <bernd.hohma...@freihaendler.com>:
>>> On 11.06.2011 16:05, Lutz Donnerhacke wrote:
>>>>> Ein Buch hat aber von den meisten Buchstaben einige hundert, das reicht eine
>>>>> Weile, bis es zu gehäuften Wiederholungen kommt, aus denen sich bestimmte
>>>>> Buchstaben annehmen lassen.
>>>> Hat man heraus, daß Code x/y/z ein "c" im Buch markiert, und findet man
>>>> anders wo ein x/y/(z+1), ist die Wahrscheinlichkeit hoch, daß dieses ein "h"
>>>> oder "k" darstellt ...
>>> Ordnungsgemässe Buchverschlüsselung nutzt keine Buchkoordinate doppelt
>>> und nutzt damit ein OTP welches wesentlich länger als die Nachricht ist.
>> Obiges ist nicht doppelt.
>
> Stimmt, aber die "Buch-Verschluesselung" kommt dennoch an die Sicherheit
> eines OTP heran, wenn man darauf achtet, eben nur Zeichen aus dem Buch
> zu verwenden, die "hinreichend weit voneinander entfernt" sind (das ver-
> hindert die von Lutz angesprochene Analyse, wie bereits jemand anders
> erwaehnt hat). Im Endeffekt darf man also nur einen kleinen Teil des
> Buches wirklich als Code verwenden, um Sicherheit zu gewaehrleisten.
Nur so als Gedankenspiel:
Als Schlüssel nimmt man eine 10000 Zeichen grosse Textdatei mit
pseudozufälligen Buchstabenfolgen nimmt, in der jedes Zeichen gleich
häufig vertreten ist. Diese Datei ist letzlich der Schlüssel, der
natürlich geheim gehalten werden muss und einmalig zwischen Sender und
Empfänger sicher ausgetauscht werden muss.
Als Verschlüsselung gibt man einfach die Position des Zeichens an,
beginnend bei 1, bis 500000, wobei die Positionen über 10000 modulo
10000 gerechnet werden.
Für die Codierung wird bei jedem Zeichen immer eine neue Position aus
dem "Buch" gesucht, d.h. das System merkt sich, welche Position zuletzt
für die Codierung eines Zeichens verwendet wurde und stellt sicher, dass
ein Zeichen niemals hintereinander mit dem selben Position verschlüsselt
wird. Erst wenn keine freie Postion mehr übrig ist, werden die bereits
genutzten Positionen wiederverwendet - dann aber auch nach dem selben
Prinzip, dass nur Positionen genutzt werden, die erst einmal verwendet
wurden (bei 10000 Zeichen und 26 Zeichen des Alphabets ergibt das etwa
alle 380 Mal eine erneute Nutzung der selben Position für ein Zeichen).
Mal abgesehen von der Problematik der Geheimhaltung des Schlüssels und
der Tatsache, dass es etablierte kryptografische Verfahren gibt - wäre
sowas realistisch angreifbar oder ist die Idee völlig unsinnig?
Dass Codebücher wiederverwendet wurden, ist eben der klassische Fall.
Aber auch ohne: Sind die Bücher bekannt, und man tauscht sich über den
Titel (und letztlich auch die Ausgabe) eines literarischen Werkes aus,
so ist das Verfahren nicht nur dagegen anfällig, dass man (je nach
Nachrichtenlänge) schnell mögliche Bücher auswählen kann; auch gegen
Known-Plaintext ist das Verfahren nicht sicher, weil man schnell Bücher
auswählen kann, die an den besagten Stellen gerade diese Buchstaben
haben. Gegen Known Plaintext ist das Verfahren also noch weicher.
Nur wenn man keine literarischen Bücher, sondern reine Codebücher
verwendet, die geheim gehalten werden, diese also einen Teil des
Schlüssels darstellen, die darin enthaltenen Zeichen zufällig sind
(und nicht etwa einer festen Verteilung unterliegen, auch keiner
Gleichverteilung, sondern der Zufall muss weiss sein, gleichverteilt,
nicht das Ergebnis), wenn also das ganze Verfahren eigentlich ein
besonders umständlich implementiertes OTP wird, dann wird es so sicher
(und so mit praktischen Schwächen behaftet) wie OTP.
Viele Grüsse,
Soweit so gut, aber im Prinzip nichts weiter als ein aufwaendiges OTP.
> wird. Erst wenn keine freie Postion mehr übrig ist, werden die bereits
> genutzten Positionen wiederverwendet - dann aber auch nach dem selben
Und genau an dieser Stelle geht dein ganzes verfahren kaputt.
Alles, was der Angreifer machen muss, ist Chiffretexte von vor deinem
Bruch mit nach deinem Bruch zu kombinieren und schon hat er den geheimen
Schluessel und kann damit beide Chiffrate entschluesseln.
*BINGO*
Zugegeben, wegen der aufwaendigen Herumspringerei im Schluessel muss
der Angreifer recht viele Nachrichten abfangen und speichern, aber das
sollte fuer ihn kein Problem darstellen. Zumindest darfst *du* dich
niemals darauf verlassen, dass es fuer den Angreifer ein Problem
darstellt.
> Mal abgesehen von der Problematik der Geheimhaltung des Schlüssels und
> der Tatsache, dass es etablierte kryptografische Verfahren gibt - wäre
> sowas realistisch angreifbar oder ist die Idee völlig unsinnig?
Trivial angreifbar. Du veroeffentlichst mit jedem weiteren Chiffrat
dass du nach dem ersten Aufbrauchen des Schluesselvorrates anfertigst
deinen Schluessel.
Bei *allen* OTP Verfahren (egal ob linear oder sonstwie) gilt als
oberste, erste und wichtigste Regel ueberhaupt: NIEMALS den Schluessel
mehrfach verwenden. NIE NIE NIE NIE NIE!
NIE. Und wenn die Welt untergeht!
Es ist hier von einem Buch die Rede, welches in einer unbekannten Anzahl
von Exemplaren existiert. Also hat's auch der Gegner. Vielleicht weiß er
das noch nicht. Aber früher oder später wird er dahinter kommen.
Für OTPs nimmt man nicht ohne Grund zufällige Schlüssel, die
*garantiert* nur in 2 Exemplaren existieren.
Natürlich.
> Es setzt vorraus, dass die Meldungen identisch sind und für jede
> Meldung das selbe Buch verwendet wird.
"Empfänger, Objekt, Prädikat, Subjekt, Absender"
Gerade militärische Meldungen sind häufig stark formalisiert.
> "Juergen P. Meier" <nospa...@jors.net> wrote:
>
>>Paul Ebermann <Paul-E...@gmx.de>:
>>> (Das ist Kerkhoffs Prinzip, wie schon von einigen erwähnt.)
>>>
>>> Wenn ich es richtig verstehe, ist hier der geheime Schlüssel die exakte
>>> Auswahl des Buches.
>>
>>Das Buch ist der "geheime" Schluessel.
>>
>>Dummerweise sind Buecher zum einen idR. nicht geheim, zum anderen
>
> Das ist das Hauptproblem.
Eigentlich ist das Hauptproblem dass das Verfahren recht ineffizient ist.
Das nächste Problem ist dass der Beweis der Sicherheit bei dem Verfahren
signifikant aufwändiger als z,B. bei einem OTP ist, einfach da man letzten
Endes ein OTP generiert, dies aber auf eine relativ komplizierte (sprich
fehleranfällige) Methode [2].
>>enthalten sie keine Zufallszeichenfolgen sondern natuerliche Sprache.
>
> Das ist wiederum kaum ein Problem, wenn die Entnahmestellen
> hinreichend weit auseinanderliegen und ein Buch nicht wiederverwendet
> wird.
Mich würde eine Abschätzung bezüglich "Abstand" interessieren. Aus längst
vergangenen Zeiten habe ich im Hinterkopf, dass natürliche Sprache als
Hausnummer 2bit Entropie pro Zeichen trägt. Das würde wiederum bedeuten, dass
man um z.B. einen "Keyspace" mit 128bit zu erzeugen maximal ein bit aus 128
Zeichen gewinnen darf, oder? Na, da kenn' ich aber effizientere Verfahren zur
OTP-Übermittlung...
> Sprache bestimmt zwar die Buchstabenverteilung innerhalb von
> Wörtern und Grammatik definiert einige Regeln für die Anordnung von
> Wörtern, aber die Anordnung von Sätzen (und die darin jeweils
> enthaltenen Wörter) fallen unter künstlerische Freiheit.
Letzterer Satz ist mit Sicherheit eine Annahme Deinerseits, welche Du nicht
kritisch überprüft hast. Es gab da iirc z.B. Verfahren, die auf einer
wesentlich niedrigeren Ebene (iirc Verteilung von mehrstelligen
Buchstabengruppen[1]) recht zuverlässige Zuordnungen von Texten zu Autoren
erlaubten, was erstmal durchaus überraschend ist.
Daher spricht gegen die Buchvariante schonmal ein grundlegendes Problem - man
*hat* verborgene Abhängigkeiten und weiß, dass die einem die Suppe versalzen
wenn man sie ignoriert. Also muss man irgendwie um diese herum lavieren, z.B.
indem man nur in großen Abständen entnimmt. D.h. die Sicherheit des Verfahrens
hängt an der Entnahmefunktion. Und da einfach mal anzunehmen dass große
Abstände schon auslangen ist imnsho reichlich naiv.
Im Gegensatz dazu ist der Beweise, dass ein OTP "sicher" ist eher
übersichtlich.
[1] Das eine Verfahren war iirc verblüffend einfach - sie ermitteln die
typische Kompressionsrate z.B. von zip für Texte eines Autors und stellten
fest, dass die Rate charakteristisch für den Autor ist. Oder war's nicht die
Rate sondern die Ordnung der Worttabelle? Weiß nicht mehr.
[2] Die Briten hatten ihre OTPs am Anfang iirc aus einer Bingotrommel
generiert. Bis ihnen dann auffiel dass die Zieher das Ganze biasten indem sie
Zahlen die ihnen zu "unzufällig" erschienen ignoriert haben. Blöd gelaufen.
--
CASE NIGHTMARE BLUE
Korrekt.
> Da Du mich jetzt im Filter hast, werde ich - genauso wie alle anderen
> hier - wohl vergeblich darauf warten, dass Du Deine Behauptung auch
> irgendwie begründest.
Volker hat vollkommen Recht. Es geht nämlich überhaupt nicht darum, was
Volker oder Du oder ich könnten sondern darum, was ein möglicher
Anhgreifer könnte.
Und ein "Versuch" ist nunmal die dämlichste Variante, das herauszufinden.
Eine Aussage a la "Meine Chiffre ist sicher weil sie in dcsm nicht
gebrochen wurde" ist schwachsinnig.
Du hast es irgendwie nicht kapiert: Die "100%" werden aus
Opportunitätsgründen nicht erreicht. Nicht, weil es unmöglich wäre.
Das geht im Zweifel sehr viel schneller, als man annimmt.