Thomas Kaiser schrieb:
>>> Tilmann Reh schrieb in <news:n0cmbj$djm$
1...@dont-email.me>
>>>> ABER: Diese enthält immer noch alle drei Fonts eingebettet (laut
>>>> Adobe Reader als "Eingebettete Untergruppe", genau wie beim
>>>> Original), obwohl ich sie definitiv in der Never-Embed-Liste stehen
>>>> habe.
>>>
>>> Was hast Du da drin stehen? "AOEUOL+Arial" oder "Arial"?
>>
>> Das stand in dem Teil, den Du weggeschnitten hast...
>
> Ach ja, Dein "Nachtrag" mit der Kommandozeile. Da stand halt "Arial" und
> nicht der Schriftname, der im PDF verwendet wurde.
Ich hatte Deine Frage anders verstanden und nicht auf meine
Kommandozeile bezogen.
Also müßte ich zum Entfernen konkret "AOEUOL+Arial" in der
Never-Embed-Liste für GS angeben? (Gibt es einklich dafür keine
Wildcards? Also so, daß einfach *alles* entfernt wird?)
>> Adobe Reader zeigt unter "Eigenschaften/Schriften" in allen Fällen nur
>> "Arial" etc., niemals die vorangestellten Buchstaben wie pdffonts.exe.
>
> Und jetzt? Der Reader kennt halt auch die Konvention mancher PDF-
> Erzeuger, wie die Font-Subsets benennen und zeigt nicht den
> Originalnamen sondern den Namen des Fonts, auf dem das Subset basiert,
> an.
Das hilft mir als "normalem Anwender" aber leider nicht weiter. Ich sehe
dort eben "Arial" und halte das (offenbar fälschlicherweise...) für
"Arial". :-\
>> Offenbar verwenden die Original-PDFs irgendeine "spezielle" Codierung
>> oder Zuordnung.
>
> "Speziell"? Wie schon versucht zu erläutern gibt es diverse Standard-
> Encodings und bei Untergruppen in jedem Fall Custom Encoding. Ich
> verstehe ja nach wie vor nicht, warum Du so ein Gewese mit der Herkunft
> der PDFs machst. Poste doch mal die Ausgabe von pdfinfo.exe -- aktuell
> vermute ich stark, dass es bei Producer "Mac OS X ... Quartz PDFContext"
> stehen dürfte (Font-Untergruppen, Truetype/CID und Unicode, wo's nur
> irgend geht -- das riecht zumindest nach Apple)
Nein, schlimmer:
> Author: Quadira BV
> Creator: FormPipe Software, LaserNet Output Management 6.5.11.release
> Producer: FormPipe Software, LaserNet Output Management 6.5.11.release
> CreationDate: 10/20/15 05:11:02
> ModDate: 10/20/15 07:50:09
> Tagged: no
> Form: none
> Pages: 1
> Encrypted: no
> Page size: 595.276 x 841.89 pts (A4)
> File size: 174624 bytes
> Optimized: yes
> PDF version: 1.4
>> Nach dem vollständigen Entfernen der eingebetteten Schriften ist der
>> größte Teil des Textes einwandfrei, nur ein paar Sonderzeichen und die
>> Umlaute werden nicht mehr korrekt angezeigt - stattdessen erscheinen
>> irgendwelche anderen Zeichen.
>
> Ja mei, das klappt natürlich nicht, einen Zeichenvorrat, der in Unicode
> beschrieben ist, als WinAnsi zu interpretieren.
Daher meine Frage, ob man
a) die Codierung entsprechend anpassen, oder
b) nur die nicht dem Standard (von mir aus ASCII) entsprechenden Zeichen
eben behalten könne.
(Alles, was es schon im ASCII gibt, wird offenbar auch nach stumpfer
Entfernung der Schriften noch richtig angezeigt.)
>> Am schönsten wäre es, wenn man die Codierung im PDF auf "Standard"
>> zurechtbiegen könnte
>
> Die ist Standard. Weil weder Windows noch dort gebräuchliche und sehr
> beschränkte Gammel-Encodings wie das dort übliche ANSI (basiert AFAIK
> auf ANSI 1252) sind die _einzigen_ Standards. Es gibt durchaus zeit-
> gemäße wie die auf Unicode basierenden.
Ich halte ANSI durchaus für einen (zumindest nicht un-) üblichen
Standard. Und ansonsten ist es mirauch egal, ob die Zeichen im PDF jetzt
nach ANSI oder Unicode zugeordnet werden... Es muß halt nur stimmen. :-)
Tilmann