Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

Geforce 7600 GT LM 20 und kernel 5.4?

2 views
Skip to first unread message

Kay Martinen

unread,
Apr 5, 2022, 7:10:02 PM4/5/22
to
Hallo

In einem Lenovo m57 habe ich aktuell eine passiv gekühlte Geforce
7600GT. Das Linux Mint 19.3 hab ich kürzlich auf Version 20.2 (IMHO)
aktualisiert. Davor oder dabei kam dann auch ein neuerer Kernel akt.
5.4.0-107. Das lief eine kurze Zeit IMHO mit dem noveau treiber.

Ich hab dann eine andere Tastatur angesteckt, PS/2 statt USB mit
integriertem Audio. Damit funktioniert dann auch WakeUp per Keyboard.
Dann hab ich einen Adaptec 2940 mit einem DAT Streamer angeschlossen.

Und nun ist es so das jedes mal wenn der aus dem Suspend aufwachen soll
zwar aufwacht, der Bildschirm auch irgendwann an geht aber dann tauchen
Schwarz-Weisse Längsbalken auf die beinahe Schachbrett-artig; aber nur
leicht versetzt; den ganzen Bildschirm ausfüllen. Ab da geht dann nichts
mehr außer Hartem Abschalten.

Ich hab jetzt den Alten Adaptec wieder raus geworfen. Immer noch das
gleiche Symptom beim Wakeup.

Da ich an die Tastatur als Problem nicht glaube hab ich versucht den
passenden nvidia-treiber zu installieren. Die "Treiberverwaltung" ist
nutzlos weil sie NICHTS anbietet. Ich hab dann erst nvidia-390
installiert und lande nun im Rettungsmodus von Cinnamon. Immer. Dann
stellte ich durch internet-suche fest das ich bestenfalls nvidia-340
benutzen kann. Bei ubuntu fand ich dazu noch den hinweis das der oder
ein teil davon nicht mehr ab kernel 5.x läuft und es eh keine updates
mehr gibt. Nachdem nvidia-340 drauf war hab ich einen noch installierten
alten kernel 4.x gestartet und lande immer noch im Rettungsmodus von
cinnamon.

Und so langsam gehen mir Geduld und ideen aus wenn nicht noch jemand
vielleicht einen Tip hat wie ich dem wieder zu einer sauberen
Grafikausgabe von 1440*900 via DVI verhelfen könnte.

Kann es wirklich sein das diese Karte mit diesem Linux und dem aktuellen
Kernel schlichtweg mangels Treibersupport obsolet gemacht wird?

Wäre das bei einem aktuellen Debian anders? Mint ist ja ansich nett aber
manches finde ich doch weniger schön als z.b. bei meinem Ubuntu 18 mit
KDE auf dem Laptop (der keine geforce hat).

Bye/
/Kay

--
"Kann ein Wurstbrot die Welt retten?" :-)

Bernd Mayer

unread,
Apr 5, 2022, 8:01:55 PM4/5/22
to
Am 06.04.22 um 01:03 schrieb Kay Martinen:
>
> In einem Lenovo m57 habe ich aktuell eine passiv gekühlte Geforce
> 7600GT. Das Linux Mint 19.3 hab ich kürzlich auf Version 20.2 (IMHO)
> aktualisiert. Davor oder dabei kam dann auch ein neuerer Kernel akt.
> 5.4.0-107. Das lief eine kurze Zeit IMHO mit dem noveau treiber.
>
> Da ich an die Tastatur als Problem nicht glaube hab ich versucht den
> passenden nvidia-treiber zu installieren. Die "Treiberverwaltung" ist
> nutzlos weil sie NICHTS anbietet. Ich hab dann erst nvidia-390
> installiert und lande nun im Rettungsmodus von Cinnamon. Immer. Dann
> stellte ich durch internet-suche fest das ich bestenfalls nvidia-340
> benutzen kann. Bei ubuntu fand ich dazu noch den hinweis das der oder
> ein teil davon nicht mehr ab kernel 5.x läuft und es eh keine updates
> mehr gibt. Nachdem nvidia-340 drauf war hab ich einen noch installierten
> alten kernel 4.x gestartet und lande immer noch im Rettungsmodus von
> cinnamon.
>
Hallo,

der NVIDIA-Treiber muss für jeden Kernel einzeln installiert werden.

In die run-Datei (skript) kann man reinsehen und da die möglichen
Parameter auslesen auf der ersten Seite.

Mit modprobe, lsmod usw. kann man die Module überprüfen die für den
Kernel vorhanden sind.

Die Installation des NVIDIA-Treibers erstellt auch eine log-Datei zur
Kontrolle.


Bernd Mayer






Marco Moock

unread,
Apr 6, 2022, 2:41:47 AM4/6/22
to
Am Mittwoch, 06. April 2022, um 01:03:39 Uhr schrieb Kay Martinen:

> Da ich an die Tastatur als Problem nicht glaube hab ich versucht den
> passenden nvidia-treiber zu installieren. Die "Treiberverwaltung" ist
> nutzlos weil sie NICHTS anbietet. Ich hab dann erst nvidia-390
> installiert und lande nun im Rettungsmodus von Cinnamon.

Der 390er geht auch nicht für die 7er-Serie.
Der 304er war der letzte.
https://www.nvidia.de/Download/driverResults.aspx/123843/de

Nimm nouveau, was anderes geht nicht auf aktuellen Systemen.

Tim Ritberg

unread,
Apr 6, 2022, 3:31:08 AM4/6/22
to

Am 06.04.22 um 02:01 schrieb Bernd Mayer:

> Hallo,
>
> der NVIDIA-Treiber muss für jeden Kernel einzeln installiert werden.
>
> In die run-Datei (skript) kann man reinsehen und da die möglichen
> Parameter auslesen auf der ersten Seite.
Aber wohl nicht bei Mint, das macht DKMS, wie Ubuntu.

Tim

Marco Moock

unread,
Apr 6, 2022, 7:16:31 AM4/6/22
to
Das kommt drauf an. Mint nutzt meines Wissens die Pakete von Ubuntu und
die machen DKMS. Man muss sich beim Kernel-Update im Normalfall nicht
drum kümmern.
Es gibt aber auch die Möglichkeit den Treiber direkt von nvidia zu
nutzen (.run-Datei).
Der Grund, warum der nicht mehr bei Ubuntu 16.10 und neuer dabei ist,
ist meines Wissens, dass der 304er nicht mehr mit den neueren Kerneln
klarkommt.

Laurenz Trossel

unread,
Apr 6, 2022, 7:28:24 AM4/6/22
to
On 2022-04-05, Kay Martinen <use...@martinen.de> wrote:

> Dann stellte ich durch internet-suche fest das ich bestenfalls nvidia-340
> benutzen kann. Bei ubuntu fand ich dazu noch den hinweis das der oder ein
> teil davon nicht mehr ab kernel 5.x läuft und es eh keine updates mehr
> gibt.

nvidia-340 (340.108-0ubuntu5.20.04.2) läuft bei mir auf Mint 20.3 (vorher
19.x) mit Kernel 5.4 und einer alten Quadro FX 1800M.

Marco Moock

unread,
Apr 6, 2022, 8:21:54 AM4/6/22
to
Am Mittwoch, 06. April 2022, um 11:28:22 Uhr schrieb Laurenz Trossel:

> nvidia-340 (340.108-0ubuntu5.20.04.2) läuft bei mir auf Mint 20.3
> (vorher 19.x) mit Kernel 5.4 und einer alten Quadro FX 1800M.

GT215M --> wie GeForce 300er-Serie --> 340er geht.
Die GeForce 7600 hat nen G73 (Curie), der viel älter ist und mit dem
340er-Treiber nicht mehr läuft.

Laurenz Trossel

unread,
Apr 6, 2022, 9:57:26 AM4/6/22
to
On 2022-04-06, Marco Moock <mo...@posteo.de> wrote:

> GT215M --> wie GeForce 300er-Serie --> 340er geht.
> Die GeForce 7600 hat nen G73 (Curie), der viel älter ist und mit dem
> 340er-Treiber nicht mehr läuft.

Danke für die Information. Und ich dachte, mein Laptop von 2010 sei alt.

Marco Moock

unread,
Apr 6, 2022, 10:01:49 AM4/6/22
to
Am Mittwoch, 06. April 2022, um 13:57:24 Uhr schrieb Laurenz Trossel:

> Danke für die Information. Und ich dachte, mein Laptop von 2010 sei
> alt.

Kommt immer drauf an, was man als alt bezeichnet. Ich habe hier
wesentlich ältere Hardware noch in Betrieb (das ältestes dürfte ein
Monitor von 1995 und eine Netzwerkkarte von 1996 sein). Geht alles noch.
Bei nvidia gibt es aber oft Probleme mit dem nouveau und Karten älter
als 8er-Serie wenn man eine spezielle Konfiguration will.

Kay Martinen

unread,
Apr 6, 2022, 5:10:16 PM4/6/22
to
Am 06.04.22 um 13:16 schrieb Marco Moock:
> Am Mittwoch, 06. April 2022, um 09:31:07 Uhr schrieb Tim Ritberg:
>
>> Am 06.04.22 um 02:01 schrieb Bernd Mayer:

>>> der NVIDIA-Treiber muss für jeden Kernel einzeln installiert werden.
>>>
>>> In die run-Datei (skript) kann man reinsehen und da die möglichen
>>> Parameter auslesen auf der ersten Seite.

Wenn ich da was installiert hab habe ich bisher apt verwendet und keine
run-datei gesehen. Ich hab da aber auch nicht nach gesucht weil ich von
der nichts weiß.

>> Aber wohl nicht bei Mint, das macht DKMS, wie Ubuntu.
>
> Das kommt drauf an. Mint nutzt meines Wissens die Pakete von Ubuntu und
> die machen DKMS. Man muss sich beim Kernel-Update im Normalfall nicht
> drum kümmern.

Wenn es denn dkms ist. Die Differenzierung was nun was genau macht ist
mir da in den paketlisten etwas unklar geblieben. Es gibt hier auch noch
ein nvidia-modprobe paket das angeblich die passenden Treiber laden
soll. In welchem Fall (s.u.) braucht man denn das?

> Es gibt aber auch die Möglichkeit den Treiber direkt von nvidia zu
> nutzen (.run-Datei).

Ich fand da unendlich lange seitenweise auflistungen des schemas
modules-nvidia-xxx-kernelversiony.x.z. die von ungefähr 300 bis 4xx
nummeriert sind und sowohl serie 4 als auch 5.er kernel abdecken - aber
wohl nicht alles komplett.

Dazu teils noch mit den suffixen -generic, -lowlatency, -azure, -server
o.ä. garniert.

> Der Grund, warum der nicht mehr bei Ubuntu 16.10 und neuer dabei ist,
> ist meines Wissens, dass der 304er nicht mehr mit den neueren Kerneln
> klarkommt.

Scheint so. Aber, liegt das nun an einer änderung im 5.x kernel oder in
den 304'er paketen die offenbar mehr oder weniger direkt von nvidia kommen?

Ich las auch irgendwo; und dkms-meldungen der art "Good news, no driver
needed, internal" scheinen es zu bestätigen das der kernel selbst schon
ein nvidia modul mit bringen würde. Ob/was das überhaupt alleine kann
weiß ich grad nicht. Aber es sieht für mich nach drei Wegen aus.

1. dkms mit quellcode paketen für nvidia-xxx je kernel neu bauen
2. linux-modules-nvidia-xxx zu kernel xyz mit installieren
3. einen kernel-eigenen nvidia treiber... der dann mit nouveau arbeitet?

IMHO kann man in fall 1. und 2. den X-server mit nvidia-flavor verwenden
und muß dann wohl auch nvidia-settings o.a. zw. Einstellungen bemühen.
Und bei 3. ist das nicht möglich und der x-server-noveau übernimmt.

Kommt das so hin?

Ich hab übrigens jetzt endlich den passenden Schraubendreher gefunden um
die andere nvidia-karte instand zu setzen (Lüfter nachölen) und die nun
wieder rein gesetzt. Nun schreit die mich nicht mehr an und... sie wird
auch direkt richtig angesteuert mit dem was aktuell installiert war und
die geforce 7600 GT nicht richtig konnte. Neu ist die auch nicht. GF 108
(Geforce GT 620) meldet lspci dazu. Vermutlich noch neuer als die
andere. So lange es funktioniert interessiert mich das jetzt weniger.

Nur ob die o.g. nicht-funktion nun an einer änderung im akt. kernel
liegt oder nvidia einfach nix mehr liefert für die alten karten würde
mich noch interessieren. denn für viele der o.h. pakete gibt es auch
welche mit dem suffix -updates. Auch für 304.

N.B. eine referenz zu firmware-nvidia-non-free lässt sich nicht auflösen
da ich keinen korrekten hinweis fand ob und wie man ein non-free repo in
LM einbindet. Von LM oder doch schlicht das von ubuntu? Deren
sources.list sieht anders aus als bei ubuntu.

Bernd Mayer

unread,
Apr 6, 2022, 6:28:52 PM4/6/22
to
Am 06.04.22 um 23:03 schrieb Kay Martinen:
>
> Wenn es denn dkms ist. Die Differenzierung was nun was genau macht ist
> mir da in den paketlisten etwas unklar geblieben. Es gibt hier auch noch
> ein nvidia-modprobe paket das angeblich die passenden Treiber laden
> soll. In welchem Fall (s.u.) braucht man denn das?
>
Hallo,

man kann ja im Problemfall mit lsmod kontrollieren ob der nouveau oder
der nvidia-Treiber geladen ist.

Und falls der gewünschte Trieber fehlt mit modprobe laden.


Bernd Mayer

Marco Moock

unread,
Apr 7, 2022, 3:21:05 AM4/7/22
to
Am Mittwoch, 06. April 2022, um 23:03:49 Uhr schrieb Kay Martinen:

> >> Aber wohl nicht bei Mint, das macht DKMS, wie Ubuntu.
> >
> > Das kommt drauf an. Mint nutzt meines Wissens die Pakete von Ubuntu
> > und die machen DKMS. Man muss sich beim Kernel-Update im Normalfall
> > nicht drum kümmern.
>
> Wenn es denn dkms ist. Die Differenzierung was nun was genau macht ist
> mir da in den paketlisten etwas unklar geblieben. Es gibt hier auch
> noch ein nvidia-modprobe paket das angeblich die passenden Treiber
> laden soll. In welchem Fall (s.u.) braucht man denn das?

Es gibt einige Metapakete, die gar nichts selbst machen, sondern ein
anderes nvidia-xxx installieren.
Diese installieren den proprietären Treiber. nouveau steckt in anderen
Paketen.
Unter Ubuntu gibt es neuerdings auch xserver-xorg-video-nvidia-xxx
Die nvidia-xxx gibt es unter 21.10 nicht mehr.

> > Es gibt aber auch die Möglichkeit den Treiber direkt von nvidia zu
> > nutzen (.run-Datei).
>
> Ich fand da unendlich lange seitenweise auflistungen des schemas
> modules-nvidia-xxx-kernelversiony.x.z. die von ungefähr 300 bis 4xx
> nummeriert sind und sowohl serie 4 als auch 5.er kernel abdecken -
> aber wohl nicht alles komplett.
>
> Dazu teils noch mit den suffixen -generic, -lowlatency, -azure,
> -server o.ä. garniert.

Vermutlich wegen der unterschiedlichen Kernel.

> > Der Grund, warum der nicht mehr bei Ubuntu 16.10 und neuer dabei
> > ist, ist meines Wissens, dass der 304er nicht mehr mit den neueren
> > Kerneln klarkommt.
>
> Scheint so. Aber, liegt das nun an einer änderung im 5.x kernel oder
> in den 304'er paketen die offenbar mehr oder weniger direkt von
> nvidia kommen?

Das war noch vor dem 5er-Kernel. 16.10 kam mit 4.8. Scheinbar war der
304er aber noch in zesty drin (kurzer grep auf Contents-amd64.gz), in
cosmic aber definitiv nicht mehr. Ich könnte das jetzt bis ins Details
recherchieren, aber was haben wir davon?

> Ich las auch irgendwo; und dkms-meldungen der art "Good news, no
> driver needed, internal" scheinen es zu bestätigen das der kernel
> selbst schon ein nvidia modul mit bringen würde. Ob/was das überhaupt
> alleine kann weiß ich grad nicht. Aber es sieht für mich nach drei
> Wegen aus.

Das wird nouveau sein. Der unterstützt auch noch ältere Karten unter
neuen Kerneln.

> 1. dkms mit quellcode paketen für nvidia-xxx je kernel neu bauen
> 2. linux-modules-nvidia-xxx zu kernel xyz mit installieren
> 3. einen kernel-eigenen nvidia treiber... der dann mit nouveau
> arbeitet?
>
> IMHO kann man in fall 1. und 2. den X-server mit nvidia-flavor
> verwenden und muß dann wohl auch nvidia-settings o.a. zw.
> Einstellungen bemühen. Und bei 3. ist das nicht möglich und der
> x-server-noveau übernimmt.
>
> Kommt das so hin?

Kann ich mangels Erfahrung nicht sagen.


> Ich hab übrigens jetzt endlich den passenden Schraubendreher gefunden
> um die andere nvidia-karte instand zu setzen (Lüfter nachölen) und
> die nun wieder rein gesetzt. Nun schreit die mich nicht mehr an
> und... sie wird auch direkt richtig angesteuert mit dem was aktuell
> installiert war und die geforce 7600 GT nicht richtig konnte. Neu ist
> die auch nicht. GF 108 (Geforce GT 620) meldet lspci dazu. Vermutlich
> noch neuer als die andere. So lange es funktioniert interessiert mich
> das jetzt weniger.

Die wird von nouveau besser unterstützt. Zudem gibt es da auch unter
aktuellen Kerneln noch einen proprietären Treiber.

> Nur ob die o.g. nicht-funktion nun an einer änderung im akt. kernel
> liegt oder nvidia einfach nix mehr liefert für die alten karten würde
> mich noch interessieren. denn für viele der o.h. pakete gibt es auch
> welche mit dem suffix -updates. Auch für 304.

nvidia liefert für diese Karten nichts mehr neues, auch nicht für
Windows.
Bei Ubuntu finde ich für unterstützte Versionen gar kein nvidia-304
mehr: https://packages.ubuntu.com/search?keywords=nvidia-304

> N.B. eine referenz zu firmware-nvidia-non-free lässt sich nicht
> auflösen da ich keinen korrekten hinweis fand ob und wie man ein
> non-free repo in LM einbindet. Von LM oder doch schlicht das von
> ubuntu? Deren sources.list sieht anders aus als bei ubuntu.

Da kann ich nicht weiterhelfen.
Wie gesagt, nimm nouveau, was anderes bleibt dir nicht übrig. Ggf. kann
man dort noch was einstellen.

Bernd Mayer

unread,
Apr 7, 2022, 5:37:56 AM4/7/22
to
Am 06.04.22 um 23:03 schrieb Kay Martinen:
>
> Es gibt hier auch noch
> ein nvidia-modprobe paket das angeblich die passenden Treiber laden
> soll. In welchem Fall (s.u.) braucht man denn das?
>
Hallo,

siehe die Description in der control-Datei des Paketes:

"Description: utility to load NVIDIA kernel modules and create device nodes
This setuid program is used to create NVIDIA Linux device files and
load the
NVIDIA kernel module, on behalf of NVIDIA Linux driver components
which may
not have sufficient privileges to perform these actions on their own."


Bernd Mayer

Marcel Mueller

unread,
Apr 28, 2022, 12:23:07 PM4/28/22
to
Am 06.04.22 um 16:01 schrieb Marco Moock:
> Kommt immer drauf an, was man als alt bezeichnet. Ich habe hier
> wesentlich ältere Hardware noch in Betrieb (das ältestes dürfte ein
> Monitor von 1995 und eine Netzwerkkarte von 1996 sein). Geht alles noch.

Tastatur von 1987. ;-)

Aber an wirklicher Rechnerhardware dürfte kaum noch etwas aus dem
letzten Jahrtausend über sein.

> Bei nvidia gibt es aber oft Probleme mit dem nouveau und Karten älter
> als 8er-Serie wenn man eine spezielle Konfiguration will.

Ich erinnere mich dunkel. Einen großen CRT-Monitor an einer nV damit
sinnvoll zum laufen zu bringen (also mehrt als XGA@60Hz) war seinerzeit
unmöglich.


Marcel

Marcel Mueller

unread,
Apr 28, 2022, 12:30:24 PM4/28/22
to
Am 06.04.22 um 08:41 schrieb Marco Moock:
> Nimm nouveau, was anderes geht nicht auf aktuellen Systemen.

Dann weiß man aber auch wieder, wie langsam Grafik auf einem 486er war.
Kurzum, das ist nur sehr eingeschränkt empfehlenswert.

Sobald da irgendein Programm irgendwelche Grafikeffekte nutzt, wird das
zuweilen sehr langsam und wirft einen leistungsmäßig um mehrere
Grafikkartengenerationen zurück.

Anders gesagt, man muss mittlerweile einen großräumigen Bogen um nVidia
machen.

Meine alte GT440 läuft glücklicherweise noch mit dem 390 Treiber. Mit
nouveau ist sie hingegen kaum benutzbar.


Marcel

Marco Moock

unread,
Apr 28, 2022, 12:44:09 PM4/28/22
to
Am Donnerstag, 28. April 2022, um 18:30:23 Uhr schrieb Marcel Mueller:

> Am 06.04.22 um 08:41 schrieb Marco Moock:
> > Nimm nouveau, was anderes geht nicht auf aktuellen Systemen.
>
> Dann weiß man aber auch wieder, wie langsam Grafik auf einem 486er
> war. Kurzum, das ist nur sehr eingeschränkt empfehlenswert.

Empfehlenswert ist da so ne Sache - auf aktuellem Ubuntu 22.04 geht
halt nur noch 390 und neuer. Kann die GraKa das nicht muss man nouveau
nehmen. Ist dann alternativlos. Bei der 7600 war schon mit dem 304er
und damit 16.04 Schluss. 18.04 ging da nur noch mit dem nouveau.

> Sobald da irgendein Programm irgendwelche Grafikeffekte nutzt, wird
> das zuweilen sehr langsam und wirft einen leistungsmäßig um mehrere
> Grafikkartengenerationen zurück.

So man diese nutzt. Wer heute eine 7600er nutzt wird da nicht
sonderlich Grafikberechnung mit machen.

> Anders gesagt, man muss mittlerweile einen großräumigen Bogen um
> nVidia machen.
War das nicht schon immer so?

> Meine alte GT440 läuft glücklicherweise noch mit dem 390 Treiber. Mit
> nouveau ist sie hingegen kaum benutzbar.

Was bedeutet kaum nutzbar?
Ich habe hier ne 210 mit nouveau in Betrieb, ich komme damit zurecht,
ich nutze da aber nur Office-Sachen wie Videokonferenzen, Videos mit
VLC und Google Earth. Keine Videobearbeitung o.Ä.

Marco Moock

unread,
Apr 28, 2022, 12:46:35 PM4/28/22
to
Am Donnerstag, 28. April 2022, um 18:23:05 Uhr schrieb Marcel Mueller:

> Am 06.04.22 um 16:01 schrieb Marco Moock:
> > Kommt immer drauf an, was man als alt bezeichnet. Ich habe hier
> > wesentlich ältere Hardware noch in Betrieb (das ältestes dürfte ein
> > Monitor von 1995 und eine Netzwerkkarte von 1996 sein). Geht alles
> > noch.
>
> Tastatur von 1987. ;-)

Meine IBM Model M ist von 1990.

> Aber an wirklicher Rechnerhardware dürfte kaum noch etwas aus dem
> letzten Jahrtausend über sein.

Bei mir schon, ne zusätzlich noch ne Soundkarte von 1999 (Ensonic
AudioPCI) und manche IDE-Platten.

> > Bei nvidia gibt es aber oft Probleme mit dem nouveau und Karten
> > älter als 8er-Serie wenn man eine spezielle Konfiguration will.
>
> Ich erinnere mich dunkel. Einen großen CRT-Monitor an einer nV damit
> sinnvoll zum laufen zu bringen (also mehrt als XGA@60Hz) war
> seinerzeit unmöglich.

Bei mir nie ein problem gewesen. Die Erkennung der unterstützen Modi
klappte bei mir auch mit dem nouveau problemlos. 2048x1536@85Hz ist mit
einer GeForce 210 und nouveau möglich.


Marcel Mueller

unread,
Apr 28, 2022, 12:58:21 PM4/28/22
to
Am 28.04.22 um 18:44 schrieb Marco Moock:
> Am Donnerstag, 28. April 2022, um 18:30:23 Uhr schrieb Marcel Mueller:
>> Sobald da irgendein Programm irgendwelche Grafikeffekte nutzt, wird
>> das zuweilen sehr langsam und wirft einen leistungsmäßig um mehrere
>> Grafikkartengenerationen zurück.
>
> So man diese nutzt. Wer heute eine 7600er nutzt wird da nicht
> sonderlich Grafikberechnung mit machen.

Man kann das nicht jedem abgewöhnen. Mittlerweile machen ja selbst
Webseiten zuweilen so einen Kram.


>> Anders gesagt, man muss mittlerweile einen großräumigen Bogen um
>> nVidia machen.
> War das nicht schon immer so?

Naja, schwankend. Richtig optimal war es nie. Aber die AMD-Treiber waren
früher auch eine mittlere Vollkatastrophe. Da war das Problem halt eher
die Bugs. So die letzten 10 Jahre habe ich mit AMD aber nicht viel Ärger
erlebt, wenn man nicht gerade at the bleeding edge unterwegs ist.

>> Meine alte GT440 läuft glücklicherweise noch mit dem 390 Treiber. Mit
>> nouveau ist sie hingegen kaum benutzbar.
>
> Was bedeutet kaum nutzbar?

Naja, früher hatte ich eine CRT mit etwas weniger als 1856*1392@75Hz.
Das ging gar nicht. Weder die Auflösung noch die Wiederholrate. Auch mit
manuellen Modelines habe ich es nicht hinbekommen, das hat früher
eigentlich immer geklappt.
Seither habe ich auf einen Flachen mit 2560*1600 umgestellt. Der läuft
zwar mit nouveau, aber manche Dinge sind sehr langsam. Mit dem
nVidia-Treiber hingegen ist alles flüssig und es gehen sogar einfache
Games, auch mit Wine - kurzum reicht mir dicke.

> Ich habe hier ne 210 mit nouveau in Betrieb, ich komme damit zurecht,
> ich nutze da aber nur Office-Sachen wie Videokonferenzen, Videos mit
> VLC und Google Earth. Keine Videobearbeitung o.Ä.

Videokonferenz wird hier schon eng; zumindest, wenn viele Teilnehmer mit
Video dabei sind. Das dürfte aber eher der auch nicht taufrischen
Dual-Core CPU geschuldet sein. Mit nouveau habe ich das ehrlich gesagt
nie gewagt.


Marcel

Marco Moock

unread,
Apr 28, 2022, 1:03:20 PM4/28/22
to
Am Donnerstag, 28. April 2022, um 18:58:18 Uhr schrieb Marcel Mueller:

> Videokonferenz wird hier schon eng; zumindest, wenn viele Teilnehmer
> mit Video dabei sind. Das dürfte aber eher der auch nicht taufrischen
> Dual-Core CPU geschuldet sein. Mit nouveau habe ich das ehrlich
> gesagt nie gewagt.

Ich habe hier einen Ryzen 2700 (8 Kerne). Der dürfte das wohl gerechnet
haben und die GraKa diente nur zur Ausgabe des Bildes.
Das würde das Ganze erklären.

Marcel Mueller

unread,
Apr 28, 2022, 1:06:11 PM4/28/22
to
Am 28.04.22 um 18:46 schrieb Marco Moock:
> Am Donnerstag, 28. April 2022, um 18:23:05 Uhr schrieb Marcel Mueller:
>
>> Am 06.04.22 um 16:01 schrieb Marco Moock:
>>> Kommt immer drauf an, was man als alt bezeichnet. Ich habe hier
>>> wesentlich ältere Hardware noch in Betrieb (das ältestes dürfte ein
>>> Monitor von 1995 und eine Netzwerkkarte von 1996 sein). Geht alles
>>> noch.
>>
>> Tastatur von 1987. ;-)
>
> Meine IBM Model M ist von 1990.

Ich hatte eine von '87 und eine von '91. Bei einer ist aber mal der
Controllerchip verreckt.


>> Aber an wirklicher Rechnerhardware dürfte kaum noch etwas aus dem
>> letzten Jahrtausend über sein.
>
> Bei mir schon, ne zusätzlich noch ne Soundkarte von 1999 (Ensonic
> AudioPCI) und manche IDE-Platten.

Ja, neu Vortex2 hatte ich auch ziemlich lange am Start. Aber seit
bestimmt 15 Jahren sind selbst die räudigen Realtek-OnBoard-Chips um
Klassen besser. Da ich sie für Messtechnik nutze, sehe ich das sehr genau.

>>> Bei nvidia gibt es aber oft Probleme mit dem nouveau und Karten
>>> älter als 8er-Serie wenn man eine spezielle Konfiguration will.
>>
>> Ich erinnere mich dunkel. Einen großen CRT-Monitor an einer nV damit
>> sinnvoll zum laufen zu bringen (also mehrt als XGA@60Hz) war
>> seinerzeit unmöglich.
>
> Bei mir nie ein problem gewesen. Die Erkennung der unterstützen Modi
> klappte bei mir auch mit dem nouveau problemlos. 2048x1536@85Hz ist mit
> einer GeForce 210 und nouveau möglich.

Probier's nochmal mit einem Workstation-Monitor der nur BNC (sinnvoll)
kann. Da ist nichts mit EDID.

Und BTW: eine CRT-Röhre, die 2048*1536 wirklich darstellen konnte, wurde
noch niemals produziert. Keine Lochmaske hat überhaupt so viele Löcher.
Und Streifenmasken sind sowieso nochmal gröber.


Marcel

Kay Martinen

unread,
May 4, 2022, 9:30:02 AM5/4/22
to
Am 28.04.22 um 18:23 schrieb Marcel Mueller:
> Am 06.04.22 um 16:01 schrieb Marco Moock:
>> Kommt immer drauf an, was man als alt bezeichnet. Ich habe hier
>> wesentlich ältere Hardware noch in Betrieb (das ältestes dürfte ein
>> Monitor von 1995 und eine Netzwerkkarte von 1996 sein). Geht alles noch.
>
> Tastatur von 1987. ;-)

Hier auch Möglich. Dann aber nur mit DIN-Stecker. :)
Ein 4-Fach KV(ohne M) Umschalter ist hier auch noch in Betrieb.

> Aber an wirklicher Rechnerhardware dürfte kaum noch etwas aus dem
> letzten Jahrtausend über sein.

Bei dir?
Ich hab in den späten 80'n angefangen mit PCs. Weg geworfen hab ich
(noch) keinen... Suchst du was bestimmtes? 80286 Mainboard mit SIP-RAM
z.b. :-)

>> Bei nvidia gibt es aber oft Probleme mit dem nouveau und Karten älter
>> als 8er-Serie wenn man eine spezielle Konfiguration will.

= Linux.

> Ich erinnere mich dunkel. Einen großen CRT-Monitor an einer nV damit
> sinnvoll zum laufen zu bringen (also mehrt als XGA@60Hz) war seinerzeit
> unmöglich.

= auch Linux oder Win*?

IMHO war zu Zeiten der Großen CRTs Linux noch in den Kinderschuhen und
"groß" gleichbedeutend mit Teuer und Schwer. Was waren denn damals die
größten Röhren für Digitales? Für CAD u.ä. lag das IMHO so ab 20" aber
für Analog TV gabs naturgemäß größere Diagonalen. "Normal" wären 14-17"
für PCs gewesen.

Und bei den höheren Auflösungen damals war VGA auf BNC-Kabelpeitsche
doch auch nur ein Kompromiß. HDMI war noch nicht erfunden, DVI (-I für
CRT???) möglicherweise zu neu (DVI-D, DualLink) und auch eh für die
Späteren LC-Panels besser geeignet (Keine DA-AD Wandlung). Die einzigen
CRTs die keinen Analogen Input brauchten waren AFAIR HGC und EGA mit
entsprechend beschränkten Fähigkeiten. Alles drüber hatte das eine oder
andere Analoge oder Timimg/Takt Problem. Da ging m.E. dann Hohe
Auflösung ODER Hoher Takt aber meist nicht beides.

Damals (TM) war Windows Verbreiteter und dafür gab's eben Treibersupport
vom Hersteller. Da erinnere ich mich eher an Lüfter-Probleme, aber nur
gelegentlich an Installations-Ausreißern die den Bildschirm schwarz
ließen oder unlesbar. /CMDCONS32 o.a. half dann weiter.

Das eigentliche Problem dürfte sein ein Neues Linux mit neuen Treibern
mit Alter CRT-HW zu verbinden. War ja auch so nie vorgesehen. :-)

Marco Moock

unread,
May 4, 2022, 10:20:58 AM5/4/22
to
Am Donnerstag, 28. April 2022, um 19:06:10 Uhr schrieb Marcel Mueller:

> Und BTW: eine CRT-Röhre, die 2048*1536 wirklich darstellen konnte,
> wurde noch niemals produziert. Keine Lochmaske hat überhaupt so viele
> Löcher. Und Streifenmasken sind sowieso nochmal gröber.

Ich wollte damit auch nur sagen, dass es möglich ist, diese
einzustellen. Ich nutze diese Röhre mit 1600x1200 bei 85 Hz.
Warum sind Streifenmasken gröber?
Gerade die SONY-Trinitron High-End-Geräte hatten Streifenmasken.

Kay Martinen

unread,
May 4, 2022, 2:20:02 PM5/4/22
to
Am 04.05.22 um 16:20 schrieb Marco Moock:
> Am Donnerstag, 28. April 2022, um 19:06:10 Uhr schrieb Marcel Mueller:
>
>> Und BTW: eine CRT-Röhre, die 2048*1536 wirklich darstellen konnte,
>> wurde noch niemals produziert. Keine Lochmaske hat überhaupt so viele
>> Löcher. Und Streifenmasken sind sowieso nochmal gröber.
>
> Ich wollte damit auch nur sagen, dass es möglich ist, diese
> einzustellen. Ich nutze diese Röhre mit 1600x1200 bei 85 Hz.

*Diese* ist keine Angabe über die Bildschirm-Diagonale, die Sichtbare!
Über wie viele Zoll/Zentimeter sprichst du?

> Warum sind Streifenmasken gröber?
> Gerade die SONY-Trinitron High-End-Geräte hatten Streifenmasken.

Ich denke das liegt am Muster. Die Streifenmaske hat Vertikale
nebeneinander liegende "Schlitze" oder Drähte und braucht darum AFAIR
bei letztere auch schmale Stabilisierungs-Stege in der Mitte. Bei den
üblichen Punktmasken sind es Real Runde Löcher.

https://de.wikipedia.org/wiki/Lochmaske

https://de.wikipedia.org/wiki/Streifenmaske

Hat vermutlich mit dem "Punktabstand" des Masketyps zu tun. Die Streifen
dürften Länger sein was weniger Auflösung ergibt.

Marco Moock

unread,
May 4, 2022, 3:30:54 PM5/4/22
to
Am Mittwoch, 04. Mai 2022, um 20:19:33 Uhr schrieb Kay Martinen:

> *Diese* ist keine Angabe über die Bildschirm-Diagonale, die Sichtbare!
> Über wie viele Zoll/Zentimeter sprichst du?

Müssten 22" sein, iiyama Vision Master Pro 512.

Marcel Mueller

unread,
May 29, 2022, 9:58:13 AM5/29/22
to
Am 04.05.22 um 16:20 schrieb Marco Moock:
> Am Donnerstag, 28. April 2022, um 19:06:10 Uhr schrieb Marcel Mueller:
>
>> Und BTW: eine CRT-Röhre, die 2048*1536 wirklich darstellen konnte,
>> wurde noch niemals produziert. Keine Lochmaske hat überhaupt so viele
>> Löcher. Und Streifenmasken sind sowieso nochmal gröber.
>
> Ich wollte damit auch nur sagen, dass es möglich ist, diese
> einzustellen. Ich nutze diese Röhre mit 1600x1200 bei 85 Hz.
> Warum sind Streifenmasken gröber?

Naja, schau es dir mechanisch an. Lochmaske ist ein durchgehendes Blech
(genauer gesagt Invar, wegen dem Temperaturkoeffizient) mit Löchern drin.
Streifenmasken sind hingegen nur dünne Drähtchen von oben nach unten.
Deswegen haben die auch immer die zwei horizontalen Drähte, um das
überhaupt irgendwie zu stabilisieren. Wenn man da einmal gegen den Tisch
klopft wackeln schon die Farben. Das kann man einfach nicht so eng
bauen, ohne die Präzision und damit die Farbreinheit zu verlieren.

Typischerweise kann man Lochmasken bis etwa 0,2mm Raster fertigen. Das
sind um die 125 DPI und gibt auf einer klassischen 21" Röhre knapp
1920*1440. Das ist das Ende der Fahnenstange bei CRTs.

Bei Streifenmasken ist hingegen das Limit bei ca. 0,24 mm. Und das war
AFAIK auch nur bei kleineren Röhren. Die großen hatten oft 0,26 mm oder
sogar mehr. Teilweise war es sogar dynamisch, also in der Mitte, die
0,24 mm und an den Rändern eher 0,28 mm bis 0,31 mm. Damit war mehr als
1600*1200 definitiv nicht drin.

> Gerade die SONY-Trinitron High-End-Geräte hatten Streifenmasken.

Die waren deutlich schlechter als ihr Ruf. Gutes Marketing halt. Und die
Konvergenzkorrektur war bei denen halt einfach billiger.

Aber gegen eine Mitsubishi Diamondtron hat eine Trinitron nicht den
hauch einer Chance. Wenn die Dinger richtig gut eingestellt sind, haben
die ein besseres Bild als ein LCD-Bildschirm vergleichbarer Größe. Und
damit meine ich explizit auch die Schärfe. Jeder LCD hat bauartbedingt
2/3 Pixel Konvergenzfehler. Gute Röhren schaffen in den meisten
Bildbereichen <0,5 Pixel, in der Mitte sogar deutlich weniger. Und da
hat eine 125 DPI Röhre mit vielleicht 0,07 mm Konvergenzfehler
verglichen mit einem LCD mit selten mehr als 100 DPI und damit 0,17 mm
Konvergenzfehler halt einfach ein knackscharfes Bild. Falls beim LCD
dann noch alles Schriften unscharf gerendert werden, um die Farbsäume zu
kompensieren (Subpixel-Antialiasing), dann wird der Unterschied noch
eklatanter.

Man muss halt fairereweise dazu sagen, dass bei Röhren auch sehr viel
Schrott verkauft wurde. Oft waren sie ziemlich unscharf. Manchmal waren
sie aber auch so scharf eingestellt, dass man übelste Moire-Effekte
hatte. Belinea und Iiyama haben das öfter mal geschafft. Normalerweise
muss der Strahl einer Röhre so eingestellt sein, dass er auf dem Schirm
genau die Fläche eines Subpixel-Tripels hat. Dann belichtet er immer
genau ein Loch in der Maske, auch wenn er es nicht genau trifft. Im
Gegensatz zu LCDs kann ein CRT nämlich auch Teile eines Subpixels
belichten, so dass in Summe immer genau ein ganzes Subpixel erwischt
wird. In der Einstellung existiert nahezu kein Moiree-Effekt. Noch
besser wird es mit einer astigmatischen Einstellung, aber das führt
jetzt zu weit.


Marcel

Marco Moock

unread,
May 29, 2022, 10:15:11 AM5/29/22
to
Am Sonntag, 29. Mai 2022, um 15:58:11 Uhr schrieb Marcel Mueller:

> Aber gegen eine Mitsubishi Diamondtron hat eine Trinitron nicht den
> hauch einer Chance.

Ich habe hier ja einen Dell mit Trinitron und einen iiyama mit
Diamondtron. Der Dell ist schärfer, kann aber auch daran liegen, dass
der vielleicht weniger genutzt wurde.
Kann ich halt nicht prüfen.

Marcel Mueller

unread,
May 29, 2022, 10:29:54 AM5/29/22
to
Am 04.05.22 um 15:22 schrieb Kay Martinen:
> IMHO war zu Zeiten der Großen CRTs Linux noch in den Kinderschuhen und
> "groß" gleichbedeutend mit Teuer und Schwer. Was waren denn damals die
> größten Röhren für Digitales? Für CAD u.ä. lag das IMHO so ab 20" aber
> für Analog TV gabs naturgemäß größere Diagonalen. "Normal" wären 14-17"
> für PCs gewesen.

Ich hatte Anfang der 90er 15", und ein paar Jahre später dann 21".

> Und bei den höheren Auflösungen damals war VGA auf BNC-Kabelpeitsche
> doch auch nur ein Kompromiß.

BNC geht problemlos. Wenn man da gescheites Antennekabel nimmt, kann man
jederzeit 20m überbrücken, auch bei 300 MHz Pixeltakt und ohne sichtbare
Einbußen. Wer macht das freiwillig mit HDMI-Kabel nach?

> HDMI war noch nicht erfunden, DVI (-I für
> CRT???) möglicherweise zu neu (DVI-D, DualLink) und auch eh für die
> Späteren LC-Panels besser geeignet (Keine DA-AD Wandlung).

Das ist eher ein Nachteil. Die TMDS Kodierchips sind kein bisschen
billiger und die Kabelanforderungen sogar höher. Lediglich an den für
LCDs erforderlichen Pixel-Sync hat bei VGA keiner gedacht. Eine einzige
Sync-Leitung mit halben Pixeltakt und alle Probleme wären verschwunden
gewesen. Analog RGB ist immer noch die preiswerteste Modulation für
hochwertige Bildübertragung. Aber das hätte halt andere Kabel erfordert.


> Das eigentliche Problem dürfte sein ein Neues Linux mit neuen Treibern
> mit Alter CRT-HW zu verbinden. War ja auch so nie vorgesehen. :-)

Ja, mittlerweile zicken etliche Grafiktreiber ziemlich rum, wenn man
etwas anderes als 60Hz von ihnen haben will.
Ich hatte aber noch ziemlich lange den 21" CRT am Linux dran. Das ging
sowohl mit einer alten G550 als auch später mit einer OnBoard R3000 weil
der Matrox-Treiber aus dem Kernel entfernt wurde. Aber es war jedes mal
Gehampel, bis man der (nicht mehr vorhandenen) xorg.conf erklärt hatte,
dass die Karte auch wirklich 1856*1392@75Hz ausspucken soll. Die Treiber
haben sich mit Händen und Füßen gegen hohe Frequenzen jeglicher Art
gewehrt. Mit nVidia geht es gar nicht.


Marcel

Sieghard Schicktanz

unread,
May 29, 2022, 4:13:05 PM5/29/22
to
Hallo Marcel Mueller,

Du schriebst am Sun, 29 May 2022 15:58:11 +0200:

> Typischerweise kann man Lochmasken bis etwa 0,2mm Raster fertigen.
...
> Größe. Und damit meine ich explizit auch die Schärfe. Jeder LCD hat
> bauartbedingt 2/3 Pixel Konvergenzfehler. Gute Röhren schaffen in den

Jedenfalls in einer Dimension. Meistens liegen die Farbfilter ja als
Streifen vor.

> meisten Bildbereichen <0,5 Pixel, in der Mitte sogar deutlich

Aber da mußt Du schonmal genau erklären, wie ein Farbtripel auf kleine
1/2 Pixel genau angeregt werden kann.

> weniger. Und da hat eine 125 DPI Röhre mit vielleicht 0,07 mm

Dann müß(t)en die Pixel ca, 0,14 mm Größe haben, weil ja die Teile in
der üblichen "Kleeblatt"-Anordnung daliegen. Ein wenig hilft zwar, daß
die Picelreihen vertikal oder horizontal geschachtelt liegen können -
also ein Reihe .B. oben rot und unten grün/blau, die drüberliegende
dann oben rot/blau und unten grün (oder so in etwa), um eine möglichst
gleichmäßige Farbverteilung zu erreichen, aber an der Verschiebung der
Farben um ca. 1/2 Pixel kommst Du nicht herum. Außer Du machst einen
dicken schwarzen Rand drumrum - was zur Kontrastverbesserung auch
gelegentlich gemacht wurde. Das drückt natürlich die maximale
Helligkeit.

> Konvergenzfehler verglichen mit einem LCD mit selten mehr als 100 DPI
> und damit 0,17 mm Konvergenzfehler halt einfach ein knackscharfes
> Bild. Falls beim LCD dann noch alles Schriften unscharf gerendert

Ja, mag Dir vielleicht so vorgekommen sein, aber der Vorteil der
Bildröhre in _dieser_ Hinsicht war eher, daß _analog_ erstellte Linien
(und damit halt auch Buchstaben) prinzipbedingt "antialiased"
dargestellt wurden. Mit dem Aufkommen der LCDs kam dann auch die
Erkenntnis, daß digitale Darstellungen halt doch leicht zur
Treppenbildung neigten.
...
> er es nicht genau trifft. Im Gegensatz zu LCDs kann ein CRT nämlich
> auch Teile eines Subpixels belichten, so dass in Summe immer genau
> ein ganzes Subpixel erwischt wird. In der Einstellung existiert

Nur dann, wenn der Strahl über mehrere Pixel streift. Dann kann auch
mal ein Subpixel von "nebenan" belstrahlt werden, wodurch aber die
Konvergenz an der Stelle erheblich leiden kann ("Black Matrix").

--
(Weitergabe von Adressdaten, Telefonnummern u.ä. ohne Zustimmung
nicht gestattet, ebenso Zusendung von Werbung oder ähnlichem)
-----------------------------------------------------------
Mit freundlichen Grüßen, S. Schicktanz
-----------------------------------------------------------

Arno Welzel

unread,
Jun 1, 2022, 11:37:05 AM6/1/22
to
Marcel Mueller:

[...]
> Aber gegen eine Mitsubishi Diamondtron hat eine Trinitron nicht den
> hauch einer Chance. Wenn die Dinger richtig gut eingestellt sind, haben
> die ein besseres Bild als ein LCD-Bildschirm vergleichbarer Größe. Und

Und vergleichbarer Auflösung. Sonst passt der Vergleich nicht.

> damit meine ich explizit auch die Schärfe. Jeder LCD hat bauartbedingt
> 2/3 Pixel Konvergenzfehler. Gute Röhren schaffen in den meisten
> Bildbereichen <0,5 Pixel, in der Mitte sogar deutlich weniger. Und da
> hat eine 125 DPI Röhre mit vielleicht 0,07 mm Konvergenzfehler
> verglichen mit einem LCD mit selten mehr als 100 DPI und damit 0,17 mm
> Konvergenzfehler halt einfach ein knackscharfes Bild. Falls beim LCD
> dann noch alles Schriften unscharf gerendert werden, um die Farbsäume zu
> kompensieren (Subpixel-Antialiasing), dann wird der Unterschied noch
> eklatanter.

Und der Bildschirm mit LCD, vor dem ich gerade sitze, hat bauartbedingt
einen Konvergenzfehler von ca. 0,05 mm (4K mit 163 PPI). Und sowas ist
heutzutage weder besonders teuer noch besonders schwer zu finden. Und
bei mobilen Geräten kommen oft noch deutlich höhere Pixeldichten zum
Einsatz.

--
Arno Welzel
https://arnowelzel.de

Marcel Mueller

unread,
Jun 3, 2022, 3:11:22 PM6/3/22
to
Am 29.05.22 um 20:16 schrieb Sieghard Schicktanz:
>> meisten Bildbereichen <0,5 Pixel, in der Mitte sogar deutlich
>
> Aber da mußt Du schonmal genau erklären, wie ein Farbtripel auf kleine
> 1/2 Pixel genau angeregt werden kann.

Idealerweise hat der Strahl horizontal möglichst wenig Ausdehnung und
vertikal stellt man die Fokussierung so ein, dass er die Höhe eines
Triples hat. Dann streift er über die Maske und belichtet einen
Streifen, der von jeder Grundfarbe dieselbe Fläche hat. Dadurch gibt es
keine Farbfehler.
Dabei ist es vollkommen egal, ob man ein Loch der Maske nun genau trifft
oder nicht. Wenn man das Rot unten nur zu zwei Drittel streift, dann
erwischt man dafür wegen der passenden Strahlhöhe oben etwa ein Drittel
der Roten Subpixel. Dasselbe gilt für jede andere Grundfarbe.

Natürlich bekommt man den Strahl nicht genau so ideal fokussiert.
Typischerweise ist er elliptisch, bei Billigmonitoren oft auch mal rund
- dann ist das Bild horizontal etwas unscharf.

>> weniger. Und da hat eine 125 DPI Röhre mit vielleicht 0,07 mm
>
> Dann müß(t)en die Pixel ca, 0,14 mm Größe haben, weil ja die Teile in
> der üblichen "Kleeblatt"-Anordnung daliegen.

Nein, bei Röhren gibt man das Raster der Maske an, weitgehend identisch
mit dem Abstand bis zum nächsten Pixel derselben Farbe.
(Genau genommen ist die Maske etwas feiner, da sie ja etwas Abstand zur
Leuchtschicht hat und deshalb die Strahlen noch etwas auseinander gehen.)

> Ein wenig hilft zwar, daß
> die Picelreihen vertikal oder horizontal geschachtelt liegen können -
> also ein Reihe .B. oben rot und unten grün/blau, die drüberliegende
> dann oben rot/blau und unten grün (oder so in etwa), um eine möglichst
> gleichmäßige Farbverteilung zu erreichen, aber an der Verschiebung der
> Farben um ca. 1/2 Pixel kommst Du nicht herum. Außer Du machst einen
> dicken schwarzen Rand drumrum - was zur Kontrastverbesserung auch
> gelegentlich gemacht wurde. Das drückt natürlich die maximale
> Helligkeit.

Nein, so tickt das nicht. Man macht das Lochraster absichtlich schräg
und nicht exakt waagerecht. Dadurch wird die Auflösung für die wichtigen
waagerechten und senkrechten Linien etwas höher und nur für bestimmte
schräge Winkel etwas schlechter. Außerdem vermeidet das störende,
niederfrequente Moiree-Effekte, weil eben doch nicht immer alles so
exakt läuft, wie oben beschrieben, und der Strahl schon aufgrund des
Erdmagnetfelds auch niemals genau exakt horizontal verläuft - nur manche
Monitore erlauben die Korrektur der Trace Rotation. Fertigungstoleranzen
beim Glas und der Ablenkeinheit tun ihr übriges.


>> Konvergenzfehler verglichen mit einem LCD mit selten mehr als 100 DPI
>> und damit 0,17 mm Konvergenzfehler halt einfach ein knackscharfes
>> Bild. Falls beim LCD dann noch alles Schriften unscharf gerendert
>
> Ja, mag Dir vielleicht so vorgekommen sein, aber der Vorteil der
> Bildröhre in _dieser_ Hinsicht war eher, daß _analog_ erstellte Linien
> (und damit halt auch Buchstaben) prinzipbedingt "antialiased"
> dargestellt wurden.

Nein, nicht wirklich. Aber ich gebe zu, das bei Röhren sehr viel Schrott
verkauft wurde, vor allem in der Kistenschieber-Klasse. Das war bei LCDs
glücklicherweise deutlich schwerer möglich. Und gegen die
Schrott-Röhren, waren die LCDs natürlich durchweg gut.
Einzige Ausnahme waren die seinerzeit üblichen 19" LCDs mit 84 DPI. Das
ist nun wirklich Klötzchengrafik. Aber die sonst üblichen 95-100 DPI
sind schon gut brauchbar.

Bei großen Auflösungen haben die Grafikkarten auch noch ihren Beitrag
zur horizontalen Unschärfe beigetragen. Um ein sauberes Bild zu haben,
muss die analogen Bandbreite wenigstens das 1½-fache des Pixeltakts
betragen. Da wurde gerne mal gespart. Und wenn nicht da, dann hat man
das Signal Durch π-Filter am Ausgang verunstaltet, damit man leichter
durch die EMV-Prüfung kommt.

Kleine Anmerkung am Rande: für die Digitale Übertragung per DVI/HDMI
braucht man noch viel mehr analoge Bandbreite und 8 statt 3 Leitungen
für's Bild. Allerdings kommt es dabei weniger auf die Signalqualität an.
Und zu der Zeit war es halt auch viel einfacher, so etwas herzustellen.


> Mit dem Aufkommen der LCDs kam dann auch die
> Erkenntnis, daß digitale Darstellungen halt doch leicht zur
> Treppenbildung neigten.

Die Treppen hat man auf CRTs genauso. Aber die sind mir immer noch
lieber als eine künstlich unscharfe Schrift durch Cleartype und Co.
Ersteres sieht nicht so schön aus, zweiteres hingegen erhöht die
Anstrengung für die Augen - ziemlich dumm, wenn berufsbedingt den Ganzen
Tag vor der Kiste hängt.
Naja, und eine Treppe mit 125 DPI stört halt schon etwas weniger als
eine Treppe mit 100 DPI - gleiche absolute Schriftgröße vorausgesetzt.


>> er es nicht genau trifft. Im Gegensatz zu LCDs kann ein CRT nämlich
>> auch Teile eines Subpixels belichten, so dass in Summe immer genau
>> ein ganzes Subpixel erwischt wird. In der Einstellung existiert
>
> Nur dann, wenn der Strahl über mehrere Pixel streift. Dann kann auch
> mal ein Subpixel von "nebenan" belstrahlt werden, wodurch aber die
> Konvergenz an der Stelle erheblich leiden kann ("Black Matrix").

Da ist jetzt aber einiges durcheinander.

Mit Konvergenz hat das gar nichts zu tun. Konvergenzfehler entstehen
dadurch, dass die drei Elektronenstrahlen nicht nur unter
unterschiedlichem Winkel auf die Lochmaske treffen (beabsichtigt)
sondern nicht auf denselben Punkt zielen. Dann sind die Bilder der
Grundfarben gegeneinander versetzt. Das kann man natürlich bei jeder
Röhre einstellen (statische Konvergenz). Aber üblicherweise hängt es
zusätzlich noch von der Position auf dem Bildschirm ab (dynamische
Konvergenz). Dafür reichen minimalste Abweichungen bei der Glasform. Das
kann üblicherweise nur zum Teil justiert werden (und nicht immer hat
sich der Hersteller dabei maximale Mühe gegeben).

Black Matrix wiederum hat mit alle dem auch nichts zu tun. Es ist
einfach eine Reduktion der Reflektivität der Bildschirmfront, wodurch
das Raumlicht den Schwarzwert des Bildes nicht so aufhellt. Das macht
man zum einen, indem man die Kanten zwischen den Leuchtpixeln schwarz
färbt (daher der Name) und zum anderen indem man das Frontglas tönt. Das
macht zwar das Bild dunkler, aber das Reflektierte Streulicht muss
zweimal durch die getönte Scheibe, weshalb der Kontrast steigt. Der
Effekt der schwarzen Kanten ist wegen des geringen Flächenanteils
eigentlich der geringere, aber das stört beim Marketing nicht.


Marcel

Marcel Mueller

unread,
Jun 3, 2022, 3:46:31 PM6/3/22
to
Am 01.06.22 um 17:37 schrieb Arno Welzel:
>> Aber gegen eine Mitsubishi Diamondtron hat eine Trinitron nicht den
>> hauch einer Chance. Wenn die Dinger richtig gut eingestellt sind, haben
>> die ein besseres Bild als ein LCD-Bildschirm vergleichbarer Größe. Und
>
> Und vergleichbarer Auflösung. Sonst passt der Vergleich nicht.

Jein, ich wollte gerade darauf hinaus, dass die Lochmasken etwas mehr
DPI haben. Also nicht ganz die gleiche Auflösung.

> Und der Bildschirm mit LCD, vor dem ich gerade sitze, hat bauartbedingt
> einen Konvergenzfehler von ca. 0,05 mm (4K mit 163 PPI).

0,1 mm. Das ist der Abstand von Rot zu Blau bei einem Subpixel und damit
der Konvergenzfehler.

> Und sowas ist
> heutzutage weder besonders teuer noch besonders schwer zu finden.

*Heutzutage ja*
Noch vor wenigen Jahren bekam man praktisch nichts jenseits 100 DPI -
mal abgesehen von dem IBM Experiment T220/221 mit 3840*2880.

Ich habe dann irgendwann aufgegeben und ein Downgrade auf 100 DPI LCD
gemacht. Dafür aber mit der doppelten Bildgröße.


> Und
> bei mobilen Geräten kommen oft noch deutlich höhere Pixeldichten zum
> Einsatz.

Das kann man so nicht vergleichen. Der Betrachtungsabstand ist viel
geringer.


Marcel

Arno Welzel

unread,
Jun 3, 2022, 8:02:33 PM6/3/22
to
Marcel Mueller:

> Am 01.06.22 um 17:37 schrieb Arno Welzel:
[...]
>> Und sowas ist
>> heutzutage weder besonders teuer noch besonders schwer zu finden.
>
> *Heutzutage ja*
> Noch vor wenigen Jahren bekam man praktisch nichts jenseits 100 DPI -
> mal abgesehen von dem IBM Experiment T220/221 mit 3840*2880.

Definiere "wenige Jahre". Das Gerät hier, ein LG 27UD88, ist ca. 4 Jahre
alt und war damals beim Kauf im Jahr 2017 schon eine Weile auf dem Markt.

Den Dell P2715Q gab es schon 2015, also mittlerweile vor rund 7 Jahren
und den UP2414Q sogar schon 2013, womit wir schon bald bei 10 Jahren
seit Einführung sind.

Sieghard Schicktanz

unread,
Jun 4, 2022, 4:13:05 PM6/4/22
to
Hallo Marcel Mueller,

Du schriebst am Fri, 3 Jun 2022 21:11:20 +0200:

eine ganze Menge zu Details der Elektronenstrahlbildröhrentechnik.
Vielen Dank dafür, auch wenn ich nicht in jedem einzelnen Punkt mit Dir
übereinstimme, Dein Wissen ist jedenfalls recht tiefgehend. Aber ich
will das hier nicht weiter ausweiten, weil die Technik halt inzwischen
doch schon ein wenig "in die Jahre gekommen" ist und der Nutzen relativ
moderat. Jedenfalls nochmal Danke für Deine Ausführungen.

Marcel Mueller

unread,
Jun 5, 2022, 3:54:33 AM6/5/22
to
Am 04.06.22 um 02:02 schrieb Arno Welzel:
> Marcel Mueller:
>
>> Am 01.06.22 um 17:37 schrieb Arno Welzel:
> [...]
>>> Und sowas ist
>>> heutzutage weder besonders teuer noch besonders schwer zu finden.
>>
>> *Heutzutage ja*
>> Noch vor wenigen Jahren bekam man praktisch nichts jenseits 100 DPI -
>> mal abgesehen von dem IBM Experiment T220/221 mit 3840*2880.
>
> Definiere "wenige Jahre". Das Gerät hier, ein LG 27UD88, ist ca. 4 Jahre
> alt und war damals beim Kauf im Jahr 2017 schon eine Weile auf dem Markt.

Ja, irgendwie sind schon wieder einige Jahre vergangen. ;-)

Bei Monitoren denke ich in anderen Größenordnungen. Ein guter Monitor
ist halt so lange ein guter bis die Anforderungen steigen.
Der 30" Monitor, den ich jetzt habe, dürfte ca. BJ 2006 sein. Ich hatte
ihn erst einige Jahre später, aber da war praktisch nichts in der
Größenordnung mindestens 1600 vertikal mit 120-130 dpi zu bekommen,
weder neu noch gebraucht.
Und heute bekommt man selbst die Klasse 30" 100 dpi praktisch nicht
mehr. Es gibt noch genau eine (höhere) Auflösung: 3820*2160.
(Spezialformate wie 21:9 zähle ich nicht mit.) UHD ist sicher für das
eine oder andere zu gebrauchen, aber wenn das nicht passt, bekommt man
gar nichts.


> Den Dell P2715Q gab es schon 2015, also mittlerweile vor rund 7 Jahren
> und den UP2414Q sogar schon 2013, womit wir schon bald bei 10 Jahren
> seit Einführung sind.
Die ersten 4k Monitore liefen nur an handverlesenen Grafikkarten mit
handverlesenen Treibern gescheit. Und 27" 16:9 war mir von der absoluten
Höhe zu wenig. Wenn man von 4:3 kommt, ist man halt eine gewisse Höhe
gewohnt. Und man möchte ja mit einem neuen Monitor auch einen
erkennbaren Fortschritt machen. Deshalb wollte ich wenigstens 1600
vertikal, ca. 1400 hatte ich ja schon.


Marcel

Bernd Mayer

unread,
Jun 5, 2022, 10:49:38 AM6/5/22
to
Am 05.06.22 um 09:54 schrieb Marcel Mueller:
> Der 30" Monitor, den ich jetzt habe, dürfte ca. BJ 2006 sein.

Hallo,

unter Linux kann man oftmals mit ddcmon (aus den i2c-tools) die Infos
aus dem EEPROM auslesen, da steht auch das Baujahr drin.
Zuvor muss man das Modul eeprom laden;
modprobe eeprom.


Bernd Mayer
0 new messages