Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

Intel UHD 600 Bildschirm geht öfter aus, vermutlich 3D-Beschleunigung

110 views
Skip to first unread message

Marco Moock

unread,
Jan 28, 2023, 2:19:20 PM1/28/23
to
Hallo zusammen,

ich habe ne UHD Graphics 600 8086:3185 mit i915.
Öfter gehen beide Monitore aus und ne Sekunde später wieder an, das
meist, wenn irgendwas mit Grafik läuft, z.B. Videos im Browser. Das
hatte ich schonmal unter Windows und Linux auf nem Fujitsu-Laptop in
BigBlueButton, ist also kein HW-Problem ausschließlich bei mir.

Kennt da wer ne Lösung/Workaround?

--
Gruß
Marco

Marco Moock

unread,
Jan 28, 2023, 3:10:55 PM1/28/23
to
Am 28.01.2023 um 15:05:19 Uhr schrieb Andreas Kohlbach:

> Ignorieren?

Nervt aber zu sehr.

> Vielleicht ins Xorg.log oder syslog schauen. Auch wenn in meinem Fall
> nichts darüber drinsteht.

Ich konnte auch nichts finden.

Bernd Mayer

unread,
Jan 28, 2023, 4:32:56 PM1/28/23
to
Am 28.01.23 um 20:19 schrieb Marco Moock:
Hallo,

die Leistung des Boards hängt von ausreichender Kühlung ab.

Und wie viel Speicher steht für die UHD-Grafik zur Verfügung?


Bernd Mayer

Marco Moock

unread,
Jan 29, 2023, 1:24:55 AM1/29/23
to
Am 28.01.2023 um 17:30:50 Uhr schrieb Andreas Kohlbach:

> On Sat, 28 Jan 2023 21:10:54 +0100, Marco Moock wrote:
> >
> > Am 28.01.2023 um 15:05:19 Uhr schrieb Andreas Kohlbach:
> >
> >> Ignorieren?
> >
> > Nervt aber zu sehr.
>
> Wie lang ist das?

Nur ca. 2 Sekunden.
Nervt aber ungemein.

Marco Moock

unread,
Jan 29, 2023, 1:32:43 AM1/29/23
to
Am 28.01.2023 um 22:32:55 Uhr schrieb Bernd Mayer:

> die Leistung des Boards hängt von ausreichender Kühlung ab.

Der Kühlblock ist nichtmal handwarm.

> Und wie viel Speicher steht für die UHD-Grafik zur Verfügung?

Weiß ich nicht. glxinfo meldet
Video memory: 15648MB

Das kann aber nicht sein, das ist der System-RAM, von dem die sich was
abzwackt.

Marcel Mueller

unread,
Jan 29, 2023, 4:59:33 AM1/29/23
to
Am 28.01.23 um 20:19 schrieb Marco Moock:
> ich habe ne UHD Graphics 600 8086:3185 mit i915.
> Öfter gehen beide Monitore aus und ne Sekunde später wieder an, das
> meist, wenn irgendwas mit Grafik läuft, z.B. Videos im Browser. Das
> hatte ich schonmal unter Windows und Linux auf nem Fujitsu-Laptop in
> BigBlueButton, ist also kein HW-Problem ausschließlich bei mir.

Hmm, also das kenne ich auch, und zwar von unseren neuen HP-Notebooks.
Grafik weiß ich aber nicht genau. Häufigkeit ist so zwei, drei mal am Tag.
Integrierte Intel-Grafik ist es auf jeden Fall, aber die Bildschirme
hängen über USB-C Dock dran. Insofern weiß ich nicht, welche Chips da
nun wirklich beteiligt sind. Linux ist da aber weit und breit nicht im
Spiel. Die älteren Modelle hatten das Problem mit denselben Bildschirmen
jedenfalls nicht.

Einen Zusammenhang mit Grafikaktivitäten ist mir bisher nicht
aufgefallen. In der Disziplin ist hier auch nicht viel los. Ich hatte
eher die USB-C Verbindung im Verdacht. Konnte das aber bisher auch nicht
bestätigen. Gefühlt würde ich sagen, dass die Verbindung kurz
unterbrochen wird und sich dann neu aufbaut. Vielleicht Übertragungsfehler?
Du könntest unter Linux mal ins Log schauen, ob da irgendetwas von
Reconnects steht. Die Linux-Protokolle sind i.d.R. wesentlich
detailreicher als unter Win.


Marcel

Diedrich Ehlerding

unread,
Jan 29, 2023, 5:30:41 AM1/29/23
to
Marco Moock meinte:
Ich hatte ein ähnliches Verhalten früher auf einem Fujitsu Notebook
U759 in einer Dockingstation; normalerweise benutze ich einen externen
Monitor; ob der interne damals auch aus war, kann ich nicht sagen.
Grafikkarte ist laut lspci "VGA compatible controller: Intel
Corporation WhiskeyLake-U GT2 [UHD Graphics 620] (rev 02) (prog-if 00
[VGA controller])". Das Problem war dann weg, nachdem ich die Firmware
des Notebooks und IIRC der Dockingstation aktualisiert hatte.

--
gpg-Key (DSA 1024) D36AD663E6DB91A4
fingerprint = 2983 4D54 E00B 8483 B5B8 C7D1 D36A D663 E6DB 91A4
HTML-Mail wird ungeleſen entſorgt.

Marco Moock

unread,
Jan 29, 2023, 5:45:24 AM1/29/23
to
Am 29.01.2023 um 10:59:31 Uhr schrieb Marcel Mueller:

> Häufigkeit ist so zwei, drei mal am Tag.
> Integrierte Intel-Grafik ist es auf jeden Fall, aber die Bildschirme
> hängen über USB-C Dock dran. Insofern weiß ich nicht, welche Chips da
> nun wirklich beteiligt sind. Linux ist da aber weit und breit nicht
> im Spiel.

Ich hatte das 2021 auf nem Windows-Laptop. Es trat auf, wenn man in
BigBlueButton ne Konferenz hatte - aber nur, wenn das Browserfenster
auf einem bestimmten Monitor war.

> Die älteren Modelle hatten das Problem mit denselben
> Bildschirmen jedenfalls nicht.

Die Monitore sind nicht das Problem.

Marco Moock

unread,
Jan 29, 2023, 5:45:51 AM1/29/23
to
Am 29.01.2023 um 11:29:40 Uhr schrieb Diedrich Ehlerding:

> Das Problem war dann weg, nachdem ich die Firmware
> des Notebooks und IIRC der Dockingstation aktualisiert hatte.

UEFI?
Oder die Firmware der IGP?

Claus Reibenstein

unread,
Jan 29, 2023, 7:28:39 AM1/29/23
to
Andreas Kohlbach schrieb am 28.01.2023 um 23:30:

> On Sat, 28 Jan 2023 21:10:54 +0100, Marco Moock wrote:
>
>> Am 28.01.2023 um 15:05:19 Uhr schrieb Andreas Kohlbach:
>>
>>> Ignorieren?
>>
>> Nervt aber zu sehr.
>
> Wie lang ist das?

Laut OP "ne Sekunde". Reicht aber zum Nerven.

> Hier nur weniger als 20 Sekunden. So ignoriere ich das.

Das ist aber schon deutlich länger und würde mich erst recht nerven.

Gruß
Claus

Claus Reibenstein

unread,
Jan 29, 2023, 7:32:02 AM1/29/23
to
Marco Moock schrieb am 28.01.2023 um 20:19:

> Öfter gehen beide Monitore aus und ne Sekunde später wieder an, das
> meist, wenn irgendwas mit Grafik läuft, z.B. Videos im Browser.

Spontan fallen mir Überhitzung und unzureichende Stromversorgung als
mögliche Ursachen ein. Eventuell liegt auch ein Fehler in einem
(veralteten) Grafiktreiber vor. Dies ließe sich durch ein Update
desselben verifizieren bzw. beheben.

Gruß
Claus

Marco Moock

unread,
Jan 29, 2023, 8:53:19 AM1/29/23
to
Am 29.01.2023 um 13:31:59 Uhr schrieb Claus Reibenstein:

> Spontan fallen mir Überhitzung und unzureichende Stromversorgung als
> mögliche Ursachen ein. Eventuell liegt auch ein Fehler in einem
> (veralteten) Grafiktreiber vor. Dies ließe sich durch ein Update
> desselben verifizieren bzw. beheben.

Die Frage ist, wie.
Ich nutze Debain sid, der i915 ist im Kernel.
Das UEFI ist nun aktuell, hat aber nichts verändert.

Ich hatte ein ähnliches Problem im Geschäft auf nem anderen Gerät, in
Windows und Linux.

Das Problem tritt immer dann auf, wenn was mit Medien passiert, z.B.
beim Start eines Videos im Browser, aber auch bei anderem Kram wie
WebSDR.

Das passiert IMMER.
Ich hatte mal beim Browser die Hardwarebeschleunigung abgestellt, dann
kam es nicht, es war aber grässlich lahm.


Claus Reibenstein

unread,
Jan 29, 2023, 10:39:11 AM1/29/23
to
Marco Moock schrieb am 29.01.2023 um 14:53:

> Das Problem tritt immer dann auf, wenn was mit Medien passiert, z.B.
> beim Start eines Videos im Browser, aber auch bei anderem Kram wie
> WebSDR.
>
> Das passiert IMMER.

Das hattest Du _nicht_ erwähnt.

Dann ist das "Problem" vermutlich keins, sondern normales Verhalten: Die
jeweilige Anwendung schaltet vermutlich den Grafikmodus um. Dass dabei
der Bildschirm kurzzeitig dunkel wird, ist vollkommen normal und kein
Grund zur Beunruhigung.

> Ich hatte mal beim Browser die Hardwarebeschleunigung abgestellt, dann
> kam es nicht, es war aber grässlich lahm.

Weil die Anwendung dann eben _nicht_ den Grafikmodus ändert.

Gruß
Claus

Marco Moock

unread,
Jan 29, 2023, 11:00:37 AM1/29/23
to
Am 29.01.2023 um 16:39:09 Uhr schrieb Claus Reibenstein:

> Marco Moock schrieb am 29.01.2023 um 14:53:
>
> > Das Problem tritt immer dann auf, wenn was mit Medien passiert, z.B.
> > beim Start eines Videos im Browser, aber auch bei anderem Kram wie
> > WebSDR.
> >
> > Das passiert IMMER.
>
> Das hattest Du _nicht_ erwähnt.

Das weiß ich auch erst seit kurzem, denn erst da konnte ich diese
Regelmäßigkeit bewusst feststellen, weil ich drauf geachtet habe.

> Dann ist das "Problem" vermutlich keins, sondern normales Verhalten:
> Die jeweilige Anwendung schaltet vermutlich den Grafikmodus um. Dass
> dabei der Bildschirm kurzzeitig dunkel wird, ist vollkommen normal
> und kein Grund zur Beunruhigung.

Inwiefern?
Auflösung/Aktualisierungsrate sind gleich. Es wäre mir neu, dass beim
Start eines Videos die Bildschirmauflösung geändert werden müsste.

> > Ich hatte mal beim Browser die Hardwarebeschleunigung abgestellt,
> > dann kam es nicht, es war aber grässlich lahm.
>
> Weil die Anwendung dann eben _nicht_ den Grafikmodus ändert.

Welchen Modus meinst du hier?
Auflösung oder was anderes?

Claus Reibenstein

unread,
Jan 29, 2023, 11:19:46 AM1/29/23
to
Marco Moock schrieb am 29.01.2023 um 17:00:

> Am 29.01.2023 um 16:39:09 Uhr schrieb Claus Reibenstein:
>
>> Marco Moock schrieb am 29.01.2023 um 14:53:
>>
>>> Das Problem tritt immer dann auf, wenn was mit Medien passiert, z.B.
>>> beim Start eines Videos im Browser, aber auch bei anderem Kram wie
>>> WebSDR.
>>>
>>> Das passiert IMMER.
>>
>> Dann ist das "Problem" vermutlich keins, sondern normales Verhalten:
>> Die jeweilige Anwendung schaltet vermutlich den Grafikmodus um. Dass
>> dabei der Bildschirm kurzzeitig dunkel wird, ist vollkommen normal
>> und kein Grund zur Beunruhigung.
>
> Inwiefern?
> Auflösung/Aktualisierungsrate sind gleich. Es wäre mir neu, dass beim
> Start eines Videos die Bildschirmauflösung geändert werden müsste.

Neben Auflösung und Bildrate gibt es noch andere Dinge, die umgeschaltet
werden können. Eines davon hast Du bereits erwähnt:

>>> Ich hatte mal beim Browser die Hardwarebeschleunigung abgestellt,
¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯

>>> dann kam es nicht, es war aber grässlich lahm.
>>
>> Weil die Anwendung dann eben _nicht_ den Grafikmodus ändert.
>
> Welchen Modus meinst du hier?
> Auflösung oder was anderes?

Ich meine die Hardwarebeschleunigung. Wenn Dein System die normalerweise
nicht benutzt, eine Anwendung diese aber haben möchte und deshalb
einschaltet, kann es durchaus zu dem beschriebenen Effekt kommen.

Gruß
Claus

Marco Moock

unread,
Jan 29, 2023, 11:34:45 AM1/29/23
to
Warum interessiert das dann den Bildschirm?
Was ändert sich für den, wenn der per VGA oder DVI-D sein Signal
bekommt?
Oder wird da intern was umgestellt, was dann für eine kurze
Unterbrechung vom Signal sorgt?

Fällt sowas bei Tests nicht auf?

Kay Martinen

unread,
Jan 29, 2023, 11:40:01 AM1/29/23
to
Am 29.01.23 um 17:00 schrieb Marco Moock:
> Am 29.01.2023 um 16:39:09 Uhr schrieb Claus Reibenstein:
>
>> Marco Moock schrieb am 29.01.2023 um 14:53:
>>
>>> Das Problem tritt immer dann auf, wenn was mit Medien passiert, z.B.
>>> beim Start eines Videos im Browser, aber auch bei anderem Kram wie
>>> WebSDR.

Zeigt WebSDR sein Spektrum als Videostream an?
Das ist doch Software Defined Radio das z.b. auch live Breitband Scans
liefert.

>>> Das passiert IMMER.
>>
>> Das hattest Du _nicht_ erwähnt.
>
> Das weiß ich auch erst seit kurzem, denn erst da konnte ich diese
> Regelmäßigkeit bewusst feststellen, weil ich drauf geachtet habe.
>
>> Dann ist das "Problem" vermutlich keins, sondern normales Verhalten:
>> Die jeweilige Anwendung schaltet vermutlich den Grafikmodus um. Dass
>> dabei der Bildschirm kurzzeitig dunkel wird, ist vollkommen normal
>> und kein Grund zur Beunruhigung.
>
> Inwiefern?
> Auflösung/Aktualisierungsrate sind gleich. Es wäre mir neu, dass beim
> Start eines Videos die Bildschirmauflösung geändert werden müsste.

Die Auflösung vielleicht nicht. Ist die gelesene Rate wirklich gleich
oder ein rundungsfehler (59,x zu 60Hz z.b.) Mein Kodi schaltet dann auch
immer kurz dunkel wenn ich die ändern wollte. Auch auf einem Raspi am TV
(=Kein Desktop, aber auch kein Browser).

>>> Ich hatte mal beim Browser die Hardwarebeschleunigung abgestellt,
>>> dann kam es nicht, es war aber grässlich lahm.

Das heißt m.E. nur das der Browser einige Dinge extern erledigen läßt
damit sie schneller gehen. Hier eben: Videos. Dazu muß er ja wohl
definierte Schnittstellen der Plattform ansprechen können.

>> Weil die Anwendung dann eben _nicht_ den Grafikmodus ändert.
>
> Welchen Modus meinst du hier?
> Auflösung oder was anderes?

Vielleicht die Bildwiederholrate? Das soll es geben, vor allem bei
Videos in Fullscreen die mit der Anzeige synchronisiert werden könnten.

Übrigens habe ich seit einem Absturz der Grafik neulich auf meinem Linux
Mint Desktop erneut das Problem das der Gkrellm mit seiner Vertikalen
Anzeige nur Links und links der Mitte sichtbar bleibt. Verschiebt man
ihn weiter nach rechts wird er beim loslassen unsichtbar. Man kann das
unsichtbare Fenster dort aber immer noch mit der Maus "fassen" und
zurück schieben. Scheint auf die gesamte Rechte Hälfte der Anzeige
zuzutreffen. Grafik ist eine PCIe Nvidia Karte mit 21" Schirm via DVI
Verbunden. Hat mit Video und kompletten Dunkel schalten nix zu tun aber
ich weiß auch nicht ob es da keinen Zusammenhang gibt.

Benutzt du gkrellm?

Bye/
/Kay

--
"Kann ein Wurstbrot die Welt retten?" :-)

Diedrich Ehlerding

unread,
Jan 29, 2023, 11:47:03 AM1/29/23
to
Marco Moock meinte:

> UEFI?

Das Notebook bootet per UEFI, ja.

> Oder die Firmware der IGP?

Installiert habe ich sowohl das, was auf den Downloadseiten de
Herstellers für den PC angeboten wurde, als auch das, was als "Firmware
für den "mechanbical Port Replicator" angeboten wurde. Es nannte sich
aufd en Downloadseiten "BIOS update"; was darin alles enthalten war,
kann ich nicht sagen. In dmidecode sagt es "UEFI is supported", und grub
liegt in der EFI-Partition.

Ich sehe gerade, es gibt inzwischen eine neuere Version - muss ich mal
wieder ran.

Marco Moock

unread,
Jan 29, 2023, 11:55:12 AM1/29/23
to
Am 29.01.2023 um 17:32:03 Uhr schrieb Kay Martinen:

> Am 29.01.23 um 17:00 schrieb Marco Moock:
> > Am 29.01.2023 um 16:39:09 Uhr schrieb Claus Reibenstein:
> >
> >> Marco Moock schrieb am 29.01.2023 um 14:53:
> >>
> >>> Das Problem tritt immer dann auf, wenn was mit Medien passiert,
> >>> z.B. beim Start eines Videos im Browser, aber auch bei anderem
> >>> Kram wie WebSDR.
>
> Zeigt WebSDR sein Spektrum als Videostream an?

Ja. Genau deswegen tritt der Effekt da wohl auf.

> Die Auflösung vielleicht nicht. Ist die gelesene Rate wirklich gleich
> oder ein rundungsfehler (59,x zu 60Hz z.b.) Mein Kodi schaltet dann
> auch immer kurz dunkel wenn ich die ändern wollte. Auch auf einem
> Raspi am TV (=Kein Desktop, aber auch kein Browser).

Das beobachte ich mal. Gerade habe ich den Effekt, dass das Problem nur
dann auftritt, wenn das erste Video gestartet wird. Beim 2. passiert
nichts, solange das erste noch nicht fertig ist. Wird das Video
wiederholt, geht er auch wieder aus.

> >>> Ich hatte mal beim Browser die Hardwarebeschleunigung abgestellt,
> >>> dann kam es nicht, es war aber grässlich lahm.
>
> Das heißt m.E. nur das der Browser einige Dinge extern erledigen läßt
> damit sie schneller gehen. Hier eben: Videos. Dazu muß er ja wohl
> definierte Schnittstellen der Plattform ansprechen können.

VA-API, VDPAU ggf. auch?
Ich lese mich da mal etwas ein.

> >> Weil die Anwendung dann eben _nicht_ den Grafikmodus ändert.
> >
> > Welchen Modus meinst du hier?
> > Auflösung oder was anderes?
>
> Vielleicht die Bildwiederholrate? Das soll es geben, vor allem bei
> Videos in Fullscreen die mit der Anzeige synchronisiert werden
> könnten.

War kein Fullscreen.

> Benutzt du gkrellm?

Nein, noch nie von gehört.

Laurenz Trossel

unread,
Jan 29, 2023, 12:28:49 PM1/29/23
to
On 2023-01-29, Kay Martinen <use...@martinen.de> wrote:

> Zeigt WebSDR sein Spektrum als Videostream an?
> Das ist doch Software Defined Radio das z.b. auch live Breitband Scans
> liefert.

Ein Canvas-Element wird per Javascript zeilenweise gefüllt.
Manche WebSDR-Seiten haben ein Fallback auf Java. Das ist zum Glück tot.

Claus Reibenstein

unread,
Jan 29, 2023, 12:56:34 PM1/29/23
to
Marco Moock schrieb am 29.01.2023 um 17:34:

> Am 29.01.2023 um 17:19:42 Uhr schrieb Claus Reibenstein:
>
>> Marco Moock schrieb am 29.01.2023 um 17:00:
>>
>>> Auflösung/Aktualisierungsrate sind gleich. Es wäre mir neu, dass
>>> beim Start eines Videos die Bildschirmauflösung geändert werden
>>> müsste.
Was macht Dich eigentlich so sicher, dass die Auflösung nicht doch
umgeschaltet wird? Wenn Du ein Video im Vollbild betrachten möchtest und
die Auflösung nicht der physikalischen Auflösung des Bildschirms
entspricht, ist die Wahrscheinlichkeit ziemlich groß, dass diese
geändert wird. Auch das könnte die kurze Unterbrechung erklären.

>> Ich meine die Hardwarebeschleunigung. Wenn Dein System die
>> normalerweise nicht benutzt, eine Anwendung diese aber haben möchte
>> und deshalb einschaltet, kann es durchaus zu dem beschriebenen Effekt
>> kommen.
>
> Warum interessiert das dann den Bildschirm?

Weil das kurzzeitige Auswirkungen auf das Ausgangssignal der Grafikkarte
haben könnte, die der Bildschirm irgendwie verarbeiten muss.

> Oder wird da intern was umgestellt, was dann für eine kurze
> Unterbrechung vom Signal sorgt?

Wäre eine Möglichkeit.

> Fällt sowas bei Tests nicht auf?

Was soll da auffallen und warum? Wenn das Verhalten so geplant ist, gibt
es nichts, was da auffallen könnte.

Gruß
Claus

Marco Moock

unread,
Jan 29, 2023, 1:34:52 PM1/29/23
to
Am 29.01.2023 um 18:56:31 Uhr schrieb Claus Reibenstein:

> Was macht Dich eigentlich so sicher, dass die Auflösung nicht doch
> umgeschaltet wird?

Die Ausgabe von xrandr vor und nach dem kurzen Ausschalten des
Monitors geprüft mit diff.

> Wenn Du ein Video im Vollbild betrachten möchtest und die Auflösung
> nicht der physikalischen Auflösung des Bildschirms entspricht, ist
> die Wahrscheinlichkeit ziemlich groß, dass diese geändert wird. Auch
> das könnte die kurze Unterbrechung erklären.

Ich gebe das Video aber nicht in Vollbild wieder.

Marco Moock

unread,
Jan 30, 2023, 6:51:26 AM1/30/23
to
Am 29.01.2023 um 17:19:42 Uhr schrieb Claus Reibenstein:

> Ich meine die Hardwarebeschleunigung. Wenn Dein System die
> normalerweise nicht benutzt, eine Anwendung diese aber haben möchte
> und deshalb einschaltet, kann es durchaus zu dem beschriebenen Effekt
> kommen.

Ich hatte diese nun generell in X11 abgestellt, keine Änderung, scheint
doch was anderes zu sein.

Claus Reibenstein

unread,
Jan 30, 2023, 7:29:41 AM1/30/23
to
Dann bleibt nur die Aktivierung der Hardwarebeschleunigung als mögliche
Ursache.

Gruß
Claus

Laurenz Trossel

unread,
Jan 30, 2023, 8:10:51 AM1/30/23
to
On 2023-01-30, Marco Moock <mo...@posteo.de> wrote:

> Ich hatte diese nun generell in X11 abgestellt, keine Änderung, scheint
> doch was anderes zu sein.

Passiert das auch mit glxgears?

Marco Moock

unread,
Jan 30, 2023, 8:22:57 AM1/30/23
to
Nein. Aktuell nur beim Browser (Pale Moon und Firefox) feststellbar.

Marco Moock

unread,
Jan 30, 2023, 12:21:50 PM1/30/23
to
Am 30.01.2023 um 12:51:25 Uhr schrieb Marco Moock:

> Ich hatte diese nun generell in X11 abgestellt, keine Änderung,
> scheint doch was anderes zu sein.

Ich komme der Sache näher: Es tritt nur auf, wenn einer der Anschlüsse
genutzt wird, die im xrandr als HDMI bekannt sind. Am Mainboard ist das
dann DVI-D bzw. HDMI.

Nutzt man nur VGA (im xrandr eDP1) geht der Monitor nicht aus.
Nutzt man nur HDMI und DVI-D, passiert es trotzdem.

Marco Moock

unread,
Jan 31, 2023, 6:47:34 AM1/31/23
to
Am 28.01.2023 um 20:19:18 Uhr schrieb Marco Moock:

> ich habe ne UHD Graphics 600 8086:3185 mit i915.
> Öfter gehen beide Monitore aus und ne Sekunde später wieder an, das
> meist, wenn irgendwas mit Grafik läuft, z.B. Videos im Browser.

Ich konnte das Problem etwa eingrenzen. Der Ton ist schuld.
Sobald ich im pavucontrol das interne Audio auf "Aus" stelle (dann kann
kein Ton wiedergeben werden), tritt der Fehler nicht mehr auf.

Die Soundkarte steckt vermutlich auf dem gleichen Chip wie die GPU.

00:0e.0 Audio device [0403]: Intel Corporation Celeron/Pentium Silver Processor High Definition Audio [8086:3198] (rev 06)
DeviceName: Onboard - Sound
Subsystem: ASRock Incorporation Celeron/Pentium Silver Processor High Definition Audio [1849:d887]
Kernel driver in use: snd_hda_intel
Kernel modules: snd_hda_intel, snd_soc_skl,
snd_sof_pci_intel_apl

Ich schaue hier mal weiter.

Marco Moock

unread,
Jan 31, 2023, 8:32:53 AM1/31/23
to
Im dmesg gab es ab und zu:
[ 6393.153462] i915 0000:00:02.0: [drm] *ERROR* CPU pipe A FIFO underrun

intel_idle.max_cstate=1 habe ich NICHT gesetzt. Ich hatte mal getestet,
die C-States im UEFI abzustellen, ohne Erfolg.

Ich habe nun eine Bootoption in /etc/default/grub gesetzt:

GRUB_CMDLINE_LINUX_DEFAULT="snd_hda_intel.power_save_controller=0"

Es soll wohl so sein, dass diese Soundkarte nen Stromsparmodus hat, der
für diesen Ausfall sorgt. Aktuell ist alles ok, ich beobachte die
Situation weiter.

https://wiki.openthinclient.org/omd20202/troubleshooting/bildschirme-schalten-willkuerlich-ab-intel-hardware

Marco Moock

unread,
Jan 31, 2023, 2:11:30 PM1/31/23
to
Am 31.01.2023 um 11:40:00 Uhr schrieb Andreas Kohlbach:

> On Tue, 31 Jan 2023 12:47:31 +0100, Marco Moock wrote:
> >
> > Die Soundkarte steckt vermutlich auf dem gleichen Chip wie die GPU.
> Das spart Geld. :-(

Ich habe auch gar nicht gegen CPU, GPU, NIC und Audio in einem Chip
oder auf einer Platine, sofern das funktioniert. Ich habe an diese
Geräte keine große Anforderung.

> Auf dem aktuellen DELL Computer (von 2014) ist WIFI und Bluetooth auf
> einem Chip.

Das ist seit einigen Jahren üblich. Es gibt Hersteller, die bauen die
Teile so, dass zur Laufzeit Firmware auf die Karte geladen werden muss.

> Debian hat das bei der Installation nicht mal gerafft. Erst hatte ich
> kein Bluetooth, bis ich googelte. Ich musste Firmware dafür
> installieren.

Vermutlich, weil diese proprietär ist und daher bei Debian nicht
mitgeliefert wird. Bei Ubuntu ist das anders, da funktioniert mehr ootb.

> Bei meiner alten Gurke (2012) ist die CPU auf der GPU (oder die GPU
> auf der CPU). Nennt sich APU *schauder*.
>
> Funktioniert. Aber irgendwie finde ich das meh.

Warum meh?

Kay Martinen

unread,
Feb 2, 2023, 7:40:02 PM2/2/23
to
Am 31.01.23 um 20:11 schrieb Marco Moock:
> Am 31.01.2023 um 11:40:00 Uhr schrieb Andreas Kohlbach:
>
>> On Tue, 31 Jan 2023 12:47:31 +0100, Marco Moock wrote:
>>>
>>> Die Soundkarte steckt vermutlich auf dem gleichen Chip wie die GPU.
>> Das spart Geld. :-(

Bei HDMI steckt die "Soundkarte" ja auch in der Grafik. ;)

> Ich habe auch gar nicht gegen CPU, GPU, NIC und Audio in einem Chip
> oder auf einer Platine, sofern das funktioniert. Ich habe an diese
> Geräte keine große Anforderung.

Ich schon. Aus trüber Erfahrung z.b. mit Kompaktstereoanlagen. Geht ein
Teil kaputt kann man das ganze Teil wegwerfen.
Bei einzelkomponenten hat man zumindest die Chance nur den Defekten Teil
zu wechseln.

N.B. (M)ein ältester PC ist ein IBM AT. Der hat noch weder north- noch
south-bridge sondern DMA, PIC u.a. in jeweils einzelnen Chips.

Z.b.
<https://720adf3265.clvaw-cdnwnd.com/a67eeaaf3f4a3f0a260e5537c96c29d0/200000168-0286903814/700/IBM_5170_MB_type1_front.JPG?ph=720adf3265>

> Das ist seit einigen Jahren üblich. Es gibt Hersteller, die bauen die
> Teile so, dass zur Laufzeit Firmware auf die Karte geladen werden muss.

IMHO sind ähnliche Kombis seit Intel Centrino häufig. Firmware nachladen
macht es zwar theoretisch upgradebar heißt aber nicht unbedingt das es
auch updates gibt. Nur das der chip ohne software nichts kann.

Das kann auch eine Art verdongelung sein.

>> Debian hat das bei der Installation nicht mal gerafft. Erst hatte ich
>> kein Bluetooth, bis ich googelte. Ich musste Firmware dafür
>> installieren.
>
> Vermutlich, weil diese proprietär ist und daher bei Debian nicht
> mitgeliefert wird. Bei Ubuntu ist das anders, da funktioniert mehr ootb.

Auch bei debian gibt es firmware-pakete. Und ein non-free repo für BLOBs
u.a.

>> Bei meiner alten Gurke (2012) ist die CPU auf der GPU (oder die GPU
>> auf der CPU). Nennt sich APU *schauder*.
>>
>> Funktioniert. Aber irgendwie finde ich das meh.
>
> Warum meh?

Na vielleicht weil: Wenn der GPU Teil überhitzt brennt die CPU mit durch
und umgekehrt. Wenn's nur Teilausfälle sind kann man evtl. nicht mal
eine Externe Graka erfolgreich einsetzen.

Grafik gehört für mich auch nicht in eine CPU sondern auf eine Extra
Karte. Jedenfalls bei Desktops o.a. die nicht headless laufen.

Bei Servern sitzt das eh im BMC und wird meist nur Remote genutzt.
Aber da reicht auch eine Textkonsole über einen KVM-Switch zur Lokalen
steuerung und hires-Grafik und 3D wird da nicht erwartet.

Marcus Jodorf

unread,
Feb 2, 2023, 10:35:05 PM2/2/23
to
Kay Martinen <use...@martinen.de> schrieb:

>>> Bei meiner alten Gurke (2012) ist die CPU auf der GPU (oder die GPU
>>> auf der CPU). Nennt sich APU *schauder*.
>>>
>>> Funktioniert. Aber irgendwie finde ich das meh.
>> Warum meh?
>
> Na vielleicht weil: Wenn der GPU Teil überhitzt brennt die CPU mit
> durch und umgekehrt. Wenn's nur Teilausfälle sind kann man evtl. nicht
> mal eine Externe Graka erfolgreich einsetzen.

Wenn die Kühlung versagt und was durchbrennt, dann ist das ein
Designfehler. Normal brennt heute auch nichts mehr durch sondern das
wird runtergetacktet. Verstorbener CPU Kühler ist schon lange kein
Todesurteil mehr. Sehr lange.

> Grafik gehört für mich auch nicht in eine CPU sondern auf eine Extra
> Karte. Jedenfalls bei Desktops o.a. die nicht headless laufen.

Die Masse der Desktops (auch wenn es in der Realität heute meist Laptops
sind) laufen im Bürobetrieb. Da sind Grafikkarten (selbst die
einfachsten sind heute relativ leistungsfähig) einfach Perlen vor die
Säue. Und vor allem extreme Energieverschwendung.
Solange man nicht Höchstleistungsgrafik braucht (oder Gamer ist), ist
separate Graka heutzutage einfach Quatsch und vollkommen ineffizient.

> Bei Servern sitzt das eh im BMC und wird meist nur Remote genutzt.

Ja, die gute alte G200 lebt immer noch. Hab auch noch ein paar echte
hier rumliegen. ;-)

> Aber da reicht auch eine Textkonsole über einen KVM-Switch zur Lokalen
> steuerung und hires-Grafik und 3D wird da nicht erwartet.

Manchmal (meistens ;-) bist Du echt aus der Zeit gefallen. Aber hier mal
sowas von komplett und vollständig.

Ganz abgesehen davon, daß schon extrem lange keiner mehr KVM-Switches
und Textconsolen professionell verwendet. IPMI/iDrac/ILO ist nun
wirklich schon fast Jahrzehnte komplett Standard. Überall und immer.

Standard der letzten Jahre sind auch Serverbaureihen, die speziell
darauf ausgelegt sind, möglichst viele Grafikkarten aufnehmen zu können.
Genauso, wie Storage Server für möglichst viel Massenspeicher schon lange
normal sind.

Mit Grafikkarten komplett zugepflasterte Server verkaufen sich offenbar
extrem gut, so daß es bei den großen Herstellen längst eine
etablierte Serverkategorie geworden ist.

Weil KI (neudeutsch AI) ist seit geraumer Zeit das Ding schlechthin und
natürlich ist da der Bedarf an GPU-Nachbrennern extrem. Ganz früher
waren das mal nur die Cryptoheinis, die sowas haben wollten (bevor sie
auf ASICS umgestiegen sind und jetzt endlich eingehen) - heute will das
aber beinahe jeder.

Ist einfach der Trend - immer wenn ich neue Junior-Softwareentwickler
suche, kann ich 80% der Bewerber gleich in die Tonne hauen, weil die
alle immer nur Schwerpunkt AI an der Uni hatten und auch nichts anderes
machen wollen. Die CVs, wo das nicht immer sofort prominent drin ist,
werden langsam echt schon etwas selten.

Wenn es nicht so öde wäre, sich da durchzuarbeiten, weil alle CVs so
ähnlich aussehen, dann wäre es beinahe schon wieder lustig. Mit AI
„Spezialisten“ frisch von der Uni kann ich Dich aus meinen
Bewerberstapeln sofort totschmeißen
(und natürlich mit „Data Analysts“ - die sind mittlerweile auch die
Pest. Teilweise nicht einmal wirklich tiefgreifendes Wissen in Sachen
Statistik aber dafür PowerBi-Profi -- und das teilweise sogar von
durchaus nominal nicht mal schlechten internationalen Unis).


Gruß,

Marcus
⚂⚃

Marco Moock

unread,
Feb 3, 2023, 2:37:02 AM2/3/23
to
Am 03.02.2023 schrieb Kay Martinen <use...@martinen.de>:

> Am 31.01.23 um 20:11 schrieb Marco Moock:
> > Am 31.01.2023 um 11:40:00 Uhr schrieb Andreas Kohlbach:
> >
> >> On Tue, 31 Jan 2023 12:47:31 +0100, Marco Moock wrote:
> >>>
> >>> Die Soundkarte steckt vermutlich auf dem gleichen Chip wie die
> >>> GPU.
> >> Das spart Geld. :-(
>
> Bei HDMI steckt die "Soundkarte" ja auch in der Grafik. ;)

Hier scheint das kombiniert einem einem Gerät (Klinke und HDMI).
PulseAudio kennt nur ein Gerät, das hat sowohl die analogen Ausgänge
als auch HDMI/DP.

> > Ich habe auch gar nicht gegen CPU, GPU, NIC und Audio in einem Chip
> > oder auf einer Platine, sofern das funktioniert. Ich habe an diese
> > Geräte keine große Anforderung.
>
> Ich schon. Aus trüber Erfahrung z.b. mit Kompaktstereoanlagen. Geht
> ein Teil kaputt kann man das ganze Teil wegwerfen.

Stimmt, aber wenn man die heutigen Stromkosten einbezieht und bedenkt,
dass die meisten Mainboards 10 Jahre halten, lohnt sich das finanziell
nicht.

> Das kann auch eine Art verdongelung sein.

Leider ja.

> Na vielleicht weil: Wenn der GPU Teil überhitzt brennt die CPU mit
> durch und umgekehrt. Wenn's nur Teilausfälle sind kann man evtl.
> nicht mal eine Externe Graka erfolgreich einsetzen.

Seit 15 Jahren haben CPUs Abschaltautomatiken, die bei Überhitzung
greifen. Bei GraKas gibt es das auch, aber ich weiß nicht, seit wann.

> Bei Servern sitzt das eh im BMC und wird meist nur Remote genutzt.

Was ist BMC?
Ich kenne bei Server die ATI rage und ATI ES1000. Werden die nicht mehr
verbaut?

> Aber da reicht auch eine Textkonsole über einen KVM-Switch zur
> Lokalen steuerung und hires-Grafik und 3D wird da nicht erwartet.

Irgendwie muss man aber VGA/DVI/DP haben, um das Teil einmal aufsetzen
zu können.

Marco Moock

unread,
Feb 3, 2023, 2:39:26 AM2/3/23
to
Am 03.02.2023 schrieb Marcus Jodorf <m...@bogomips.de>:

> Ganz abgesehen davon, daß schon extrem lange keiner mehr KVM-Switches
> und Textconsolen professionell verwendet. IPMI/iDrac/ILO ist nun
> wirklich schon fast Jahrzehnte komplett Standard. Überall und immer.

Aber auch das muss erstmal mit Zugangsdaten und IP-Adressen
eingerichtet werden.

Bernd Mayer

unread,
Feb 3, 2023, 8:50:23 AM2/3/23
to
Am 03.02.23 um 01:38 schrieb Kay Martinen:
> Am 31.01.23 um 20:11 schrieb Marco Moock:
>> Am 31.01.2023 um 11:40:00 Uhr schrieb Andreas Kohlbach:
>>
>>> On Tue, 31 Jan 2023 12:47:31 +0100, Marco Moock wrote:
>>>>
>>>> Die Soundkarte steckt vermutlich auf dem gleichen Chip wie die GPU.
>>> Das spart Geld. :-(
>
> Bei HDMI steckt die "Soundkarte" ja auch in der Grafik. ;)
>
>> Ich habe auch gar nicht gegen CPU, GPU, NIC und Audio in einem Chip
>> oder auf einer Platine, sofern das funktioniert. Ich habe an diese
>> Geräte keine große Anforderung.
>
> Ich schon. Aus trüber Erfahrung z.b. mit Kompaktstereoanlagen. Geht ein
> Teil kaputt kann man das ganze Teil wegwerfen.
> Bei einzelkomponenten hat man zumindest die Chance nur den Defekten Teil
> zu wechseln.
>
Hallo,

eine Stereoanlage aus Einzelkomponenten ist aber deutlich teurer als
eine Kompaktstereoanlage! Die Verkabelung ist auch aufwendiger.

Bei PCs bin ich froh über die höhere Integration.

Seit langem nutze ich zumeist PCs mit integrierter Grafik.
Wenn ich doch mal eine Grafikkarte einbaue dann wird das teuer.

Und hinterher frage ich mich oft: Was hat das denn gebracht?

Eine Grafikkarte die besser als eine Onboard-Grafik ist gibt es ja ab
ca. 200 € aufwärts. Nach oben ist der Preis beinahe unbegrenzt.

Bei Soundkarten und Netzwerkkarten ähnlich.

Der Stromverbrauch ist auch höher, die Erwärmung im PC ebenso.
Lüfter erzeugen zusätzlichen Lärm.

In Notebooks sind die Auswirkungen vom Stromverbrauch und dem
zusätzlichen Gewicht noch schlimmer.

Mein erster PC hatte noch einzelne Speicherchips eingebaut, Vernetzung
ins Internet geschah überer 2400-er Modem. Datenaustausch zunächst mit
Disketten, später über die serielle Schnittstelle und dann nochmals
schneller über die parallele Schnittstelle mit Laplinkkabel.

Ich möchte nicht dahin zurück!


Bernd Mayer










Bernd Mayer

unread,
Feb 3, 2023, 8:58:57 AM2/3/23
to
Am 31.01.23 um 17:40 schrieb Andreas Kohlbach:
>
> Bei meiner alten Gurke (2012) ist die CPU auf der GPU (oder die GPU auf
> der CPU). Nennt sich APU *schauder*.
>
> Funktioniert. Aber irgendwie finde ich das meh.

Hallo,

warum hast Du Dir diese "Gurke" denn beschafft wenn Du das meh findest?


Bernd Mayer





Kay Martinen

unread,
Feb 3, 2023, 10:30:02 AM2/3/23
to
Am 03.02.23 um 04:24 schrieb Marcus Jodorf:
> Kay Martinen <use...@martinen.de> schrieb:
>
>>>> Nennt sich APU *schauder*.
>>>>
>>>> Funktioniert. Aber irgendwie finde ich das meh.
>>> Warum meh?
>>
>> Na vielleicht weil: Wenn der GPU Teil überhitzt brennt die CPU mit
>> durch und umgekehrt. Wenn's nur Teilausfälle sind kann man evtl. nicht
>> mal eine Externe Graka erfolgreich einsetzen.
>
> Wenn die Kühlung versagt und was durchbrennt, dann ist das ein
> Designfehler. Normal brennt heute auch nichts mehr durch sondern das
> wird runtergetacktet. Verstorbener CPU Kühler ist schon lange kein
> Todesurteil mehr. Sehr lange.

Ich weiß. So ungefähr seit Pentium 3 oder Pro. Das kann dann den
lustigen Nebeneffekt des kompletten DoS haben. Z.b. hier ein alter
Laptop mit P4 Mobile und Geforce. Lüfter dreht aber dessen Tacholeitung
scheint nicht mehr erkannt zu werden. Einschalten... ein paar Sekunden
betrieb... KLACK. BIOS oder CPU schalten ab. Immer!

Und das reine Runter takten kann m.W. auch so weit gehen das ein
Taschenrechner schneller wäre. Aber heute löst die Software ja jedes
Hardware-Problem. :-) meh!


>> Grafik gehört für mich auch nicht in eine CPU sondern auf eine Extra
>> Karte. Jedenfalls bei Desktops o.a. die nicht headless laufen.

> Solange man nicht Höchstleistungsgrafik braucht (oder Gamer ist), ist
> separate Graka heutzutage einfach Quatsch und vollkommen ineffizient.

Zustimmung. Obiges war nur meine Persönliche Meinung zu dem was ich
nutzen wollen würde.

>> Bei Servern sitzt das eh im BMC und wird meist nur Remote genutzt.
>
> Ja, die gute alte G200 lebt immer noch. Hab auch noch ein paar echte
> hier rumliegen. ;-)

G200 AFAIR nicht, aber eine MGA 400 müßte ich auch noch haben. :)

Cirrus Logic und WD sind bei älteren Geräten auch noch vertreten.

>> Aber da reicht auch eine Textkonsole über einen KVM-Switch zur Lokalen
>> steuerung und hires-Grafik und 3D wird da nicht erwartet.
>
> Manchmal (meistens ;-) bist Du echt aus der Zeit gefallen. Aber hier mal
> sowas von komplett und vollständig.

[Loriot] "Ach!" :-)

Ich sprach oben von Textkonsole und "da reicht auch" was nicht heißt das
es nicht anders ginge oder ich nicht um alternative Zwecke wüßte!

> Ganz abgesehen davon, daß schon extrem lange keiner mehr KVM-Switches
> und Textconsolen professionell verwendet. IPMI/iDrac/ILO ist nun
> wirklich schon fast Jahrzehnte komplett Standard. Überall und immer.

Ja und nutzt du/man das auch direkt am Rack für den Physischen
Konsolenzugriff... mit einem Laptop den du in den Management-Port des
Netzwerk Switches steckst oder schleppst du einen Bildschirm und eine
Tastatur mit um sie in die Front USB/VGA zu stöpseln die z.b. ein
Proliant G5 darbietet.

Oder ist im Rack evtl ein KVM-Switch integriert mit einer Schublade aus
der beim raus ziehen dann der Flachbildschirm ausklappt und die Tastatur
zugänglich wird? DAS hätte ich als Usus angesehen. Nicht mehr?

Ich schrieb oben von Minimaler Textkonsole und meinte damit den direkten
Lokalen Physischen Zugang zu einem beliebigen Server im Rack vor dem man
grade steht.

Klar kann man sich auch remote via ILO aufschalten, sieht dann z.b. die
Blaue LED des Proliant leuchten um zu prüfen ob man auch die richtige
Kiste erwischt hat. Mit SoL via IPMI hab ich da keine Praxis. Nur mit
dem Telnet/SSH Zugang zur ILO = CLI.

Ersetzt dir das in 100% aller Wartungsfälle die physische Konsole des
Servers? DANN wäre mir das in der Tat neu. Wenn man das heute im RZ so
nutzt, Okay. Ich brauch es für meine paar Spielzeug-Server zuhause aber
nicht.

Natürlich ist klar das der Verzicht auf KVM und Switch, Kabel und
Platz/Stromverbrauch pro Rack vermutlich locker 1-2 Tausend Euro ein
sparen kann. Und wenn man Defekte Server einfach hart abschaltet, raus
zieht und weg wirft dann ist das wohl auch kein Problem.

TCO Rulez oder?

> Standard der letzten Jahre sind auch Serverbaureihen, die speziell
> darauf ausgelegt sind, möglichst viele Grafikkarten aufnehmen zu können.

Für Remote View zwecke, Verteiltes Rechnen/CUDA, bitcoin Bro's, Crypto
Kram oder als AI-Beschleuniger (Tensor Chips?) die damit allesamt keine
physische Grafikausgabe am Gerät haben.

Meintest du so was?

> Genauso, wie Storage Server für möglichst viel Massenspeicher schon lange
> normal sind.

Ich habe zwei StorageWorks MSA im Keller und weiß auch das neuere Geräte
2,5 oder gar 1.8" in rauen Mengen aufnehmen, heute oft SSD oder gleich
andere schnellere. Was man halt in einem SAN oder NAS so brauchen kann.

> Mit Grafikkarten komplett zugepflasterte Server verkaufen sich offenbar
> extrem gut, so daß es bei den großen Herstellen längst eine
> etablierte Serverkategorie geworden ist.

Ich hab auch darüber gelesen das ein Anbieter Server mit Spielen laufen
lässt auf die sich (Zahlende) Kunden dann online IMO per Browser
aufschalten können. Als alternative zum Spiel selbst kaufen.

Wird so was On/OffPremise auch für Remote Desktop Clients verwendet?

> Weil KI (neudeutsch AI) ist seit geraumer Zeit das Ding schlechthin und
> natürlich ist da der Bedarf an GPU-Nachbrennern extrem. Ganz früher
> waren das mal nur die Cryptoheinis, die sowas haben wollten (bevor sie
> auf ASICS umgestiegen sind und jetzt endlich eingehen) - heute will das
> aber beinahe jeder.

Das finde ich auch "meh". Speziell die Energieverschwendung die mit
Crypto-"Geld" einher geht. Und wohin uns KI/AI führen wird ist ja noch
nur ansatzweise absehbar an den Diskussionen um ChatGPT Dal-E o.a.
Spezial-Idiotensystemen.

Ich/wir währen wohl sehr überrascht wenn sich daraus eine wirklich
starke KI entwickeln würde. Eine die dem Namen auch gerecht würde.

> Ist einfach der Trend - immer wenn ich neue Junior-Softwareentwickler
> suche, kann ich 80% der Bewerber gleich in die Tonne hauen, weil die
> alle immer nur Schwerpunkt AI an der Uni hatten und auch nichts anderes
> machen wollen. Die CVs, wo das nicht immer sofort prominent drin ist,
> werden langsam echt schon etwas selten.

Du meinst da ist keiner mehr der in seinem CV etwas von Grundkenntnissen
in Assembler, Basic oder COMAL zu schreiben traute? Oder gar
"Avantgardistischen" Sprachen wie C++, Java oder; aktuell; Rust?

Forth oder Lisp sind dann wohl auch nicht mehr vertreten, oder?

Bis auf die drei Erstgenannten hab ich mich mit den weiteren aber auch
noch nie befaßt, Nur drüber gehört, gelesen und teils benutzt. Z.b. um
eine alte ILO richtig nutzen zu können, oder den Configmaker/ClusterMan
alter Catalyst 29xx. Die wollen jre 1.3 oder 1.4 und tun es nicht mit
neuerem. Aber ich strebe auch keine Karriere in der IT an. Nicht mehr.

Wenn du mir also vorwirfst ich wäre aus der Zeit gefallen dann liegt das
nur an dem alten was ich hier an Hardware habe und das ich von neuerem
entweder nicht viel halte, es nicht brauche und auch nicht das Geld habe
oder investieren wollte um es zu kaufen. Was nicht bedeutet das ich
davon nie gehört oder gelesen habe.

Und manchmal bin ich auch meinungs-Pluralist. ;-)

> „Spezialisten“ frisch von der Uni kann ich Dich aus meinen
> Bewerberstapeln sofort totschmeißen

Oh no! :)

> (und natürlich mit „Data Analysts“ - die sind mittlerweile auch die
> Pest. Teilweise nicht einmal wirklich tiefgreifendes Wissen in Sachen
> Statistik aber dafür PowerBi-Profi -- und das teilweise sogar von
> durchaus nominal nicht mal schlechten internationalen Unis).

"PowerBi"? Na, das muß es wohl geben wenn man immer mehr Daten anhäuft.

Ich muß grade an die Funny IBM Adverts denken
<https://youtu.be/kWN0MMUbfH0> speziell ab "Covered" :)

Kay Martinen

unread,
Feb 3, 2023, 10:40:02 AM2/3/23
to
Am 03.02.23 um 08:37 schrieb Marco Moock:
> Am 03.02.2023 schrieb Kay Martinen <use...@martinen.de>:
> >> Na vielleicht weil: Wenn der GPU Teil überhitzt brennt die CPU mit
>> durch und umgekehrt. Wenn's nur Teilausfälle sind kann man evtl.
>> nicht mal eine Externe Graka erfolgreich einsetzen.
>
> Seit 15 Jahren haben CPUs Abschaltautomatiken, die bei Überhitzung
> greifen. Bei GraKas gibt es das auch, aber ich weiß nicht, seit wann.

War oben nur als; theoretische; möglichkeit angeführt. Ob ein Chipteil
sich schneller erwärmen kann als der Thermal Shutdown greift weiß ich
nicht. Meine ich aber von gelesen zu haben.

Alles Worst-Case wenn die Abwärme zu viel wird.

>> Bei Servern sitzt das eh im BMC und wird meist nur Remote genutzt.
>
> Was ist BMC?

Baseboard Management Controller. Der entweder einen Netzwerk-Port mit
dem Server teilt oder heute häufiger einen separaten Management-Port
hat. Proliant ILO ist von HP und der unabhängige Prozessor über den man
auch einen Server erreicht der im Soft-Off ist.

Andere Hersteller haben eigene Namen dafür. IPMI ist systemübergreifend
und üblicherweise bieten diese Lösungen alle Soft-On/off Remote KVM und
mehr an.

> Ich kenne bei Server die ATI rage und ATI ES1000. Werden die nicht mehr
> verbaut?

Bei halbwegs aktuelleren Modellen hab ich ES1000 schon gelesen. Bei
meinen Alten Geräten ist es eher Cirrus Logic, WD oder Matrox G200/G400
Kompatibles.

>> Aber da reicht auch eine Textkonsole über einen KVM-Switch zur
>> Lokalen steuerung und hires-Grafik und 3D wird da nicht erwartet.
>
> Irgendwie muss man aber VGA/DVI/DP haben, um das Teil einmal aufsetzen
> zu können.

Ein "echter" Server (Hardware) hat die ja auch. Bei einem Proliant G5
z.b. auch durch eine VGA Buchse an der Front und USB für Tastatur und
Maus. Und hinten auch um klassisch einen KVM Switch zu nutzen.

Aber wie Marcus nebenan ausführt ist das wohl heute nicht mehr usus.

Man kann ja schon länger gescriptete Installationen per Netzwerk
automatiert ablaufen lassen. Und der Debian Installer bietet AFAIR auch
ein Modul um nach dem Start via ssh weiter zu machen.

Kay Martinen

unread,
Feb 3, 2023, 12:00:02 PM2/3/23
to
Am 03.02.23 um 14:58 schrieb Bernd Mayer:
Ich kann nur ahnen was Andreas antworten würde aber ein paar
Möglichkeiten die ich; auch persönlich; sehe sind:

- es gab nix besseres - für das eigene Budget.
- auch wenn man es meh findet beißt man in den Sauren Apfel.
- Kompromißlösung bis man was bessere bekommen kann.

Laurenz Trossel

unread,
Feb 3, 2023, 1:45:36 PM2/3/23
to
On 2023-02-03, Kay Martinen <use...@martinen.de> wrote:

> Für Remote View zwecke, Verteiltes Rechnen/CUDA, bitcoin Bro's, Crypto
> Kram oder als AI-Beschleuniger (Tensor Chips?) die damit allesamt keine
> physische Grafikausgabe am Gerät haben.

https://geforcenow.com/ gibt mir laut Sys-Info eine Tesla T10. Das ist so
eine Server-GPU ohne Ausgang. Daddeln im Hotelzimmer funktioniert damit
gut.

Marcus Jodorf

unread,
Feb 4, 2023, 2:05:05 AM2/4/23
to
Marco Moock <mo...@posteo.de> schrieb:

>> Ganz abgesehen davon, daß schon extrem lange keiner mehr KVM-Switches
>> und Textconsolen professionell verwendet. IPMI/iDrac/ILO ist nun
>> wirklich schon fast Jahrzehnte komplett Standard. Überall und immer.
>
> Aber auch das muss erstmal mit Zugangsdaten und IP-Adressen
> eingerichtet werden.

Das ist doch kein Problem. Die kommen - genauso wie jeder 30 Eur Wifi
Router - mit default Adressen. (Oder Du zahlst extra und das Ding wird
fertig konfiguriert geliefert. Dell nimmt z.B. für viele einzelne
Position im Bios an oder ausgeknipst so ungefähr um die 20 Eur pro
Einstellung. Erstaunlich, daß es das gibt, aber es scheint Kunden dafür
zu geben. Also ist alles machbar.)

Erstmalig Strom an, auf z.B. 192.168.1.1 mit Webbrowser connecten,
konfigurieren, Neustart, fertig.
Niemand bastelt an einen neuen Server im Rack Monitor und Tastatur.
Reinschieben, Netzwerk dran und dann geht man zurück ins Warme und macht
von da aus weiter.


Gruß,

Marcus
⚂⚃

Marco Moock

unread,
Feb 4, 2023, 3:43:16 AM2/4/23
to
Am 03.02.2023 um 18:49:00 Uhr schrieb Andreas Kohlbach:

> On Fri, 3 Feb 2023 14:58:55 +0100, Bernd Mayer wrote:
> >
> > Am 31.01.23 um 17:40 schrieb Andreas Kohlbach:
> >> Bei meiner alten Gurke (2012) ist die CPU auf der GPU (oder die GPU
> >> auf
> >> der CPU). Nennt sich APU *schauder*.
> >> Funktioniert. Aber irgendwie finde ich das meh.
> >
> > warum hast Du Dir diese "Gurke" denn beschafft wenn Du das meh
> > findest?
>
> Katze im Sack.

Normalerweise gibt der Hersteller an, was verbaut wird.

> Ich kaufte meist das Preiswerteste, was es gab, da mir alle
> Laptops/Notebooks verschiedener Marken knapp außerhalb der Garantie
> aufgrund der harten Beanspruchung starben. Warum das Doppelte für ein
> Markengerät ausgeben, wenn ich es auch von dem vermuten würde?

Kann passieren, aber bei HP/Lenovo war die Laufzeit gefühlt irgendwie
höher als bei Medion und Acer.

> Besagtes Gerät hat erstaunlicherweise mittlerweile 10 Jahre auf dem
> Buckel. Viele Tasten, Lautsprecher und anderes sind hin, sodass ich es
> nur noch als Server im anderen Raum einsetze.

Tasten kann ich verstehen, aber wie bekommt man den Lautsprecher
zerstört?

Kay Martinen

unread,
Feb 4, 2023, 3:20:02 PM2/4/23
to
Am 04.02.23 um 09:43 schrieb Marco Moock:
> Am 03.02.2023 um 18:49:00 Uhr schrieb Andreas Kohlbach:
>
>> On Fri, 3 Feb 2023 14:58:55 +0100, Bernd Mayer wrote:
>>>
>>> Am 31.01.23 um 17:40 schrieb Andreas Kohlbach:
>>>> Bei meiner alten Gurke (2012) ist die CPU auf der GPU (oder die GPU
>>>> auf
>>>> der CPU). Nennt sich APU *schauder*.
>>>> Funktioniert. Aber irgendwie finde ich das meh.
>>>
>>> warum hast Du Dir diese "Gurke" denn beschafft wenn Du das meh
>>> findest?
>>
>> Katze im Sack.
>
> Normalerweise gibt der Hersteller an, was verbaut wird.

Gerät von der Resterampe, runtergesetzt auf "Jetzt kaufen" Level vielleicht?

>> Besagtes Gerät hat erstaunlicherweise mittlerweile 10 Jahre auf dem
>> Buckel. Viele Tasten, Lautsprecher und anderes sind hin, sodass ich es
>> nur noch als Server im anderen Raum einsetze.
>
> Tasten kann ich verstehen, aber wie bekommt man den Lautsprecher
> zerstört?

Ist auch ein Elektromechanisches Bauteil und kann genau so kaputt gehen
wie die Tasten. Dann kann man ihn ggf. übersteuern, es kann der
Verstärker oder die Kabelverbindung defekt sein oder der Soundchip
selbst hat einen Hau weg.

Selbst Fette Lautsprecherboxen (jedenfalls früher) haben es nicht immer
gut vertragen als man sie mit Digitalen Signalen traktierte. Oder mit
einem rechteck Signal.

Bernd Mayer

unread,
Feb 4, 2023, 3:46:41 PM2/4/23
to
Am 04.02.23 um 00:49 schrieb Andreas Kohlbach:
> On Fri, 3 Feb 2023 14:58:55 +0100, Bernd Mayer wrote:
>>
>> Am 31.01.23 um 17:40 schrieb Andreas Kohlbach:
>>> Bei meiner alten Gurke (2012) ist die CPU auf der GPU (oder die GPU
>>> auf
>>> der CPU). Nennt sich APU *schauder*.
>>> Funktioniert. Aber irgendwie finde ich das meh.
>>
>> warum hast Du Dir diese "Gurke" denn beschafft wenn Du das meh findest?
>
> Katze im Sack.
>
> Ich kaufte meist das Preiswerteste, was es gab, da mir alle
> Laptops/Notebooks verschiedener Marken knapp außerhalb der Garantie
> aufgrund der harten Beanspruchung starben. Warum das Doppelte für ein
> Markengerät ausgeben, wenn ich es auch von dem vermuten würde?
>
> CPU-Specs aus /proc/cpuinfo:
>
> model name : AMD E-300 APU with Radeon(tm) HD Graphics
> cpu MHz : 978.370
> cache size : 512 KB

Hallo,

die AMD E-300 war auch für 2012 eine schwache CPU.
https://www.cpubenchmark.net/cpu_lookup.php?cpu=AMD+E-300+APU&id=248
Unabhängig davon, daß da eine APU integriert ist.

Du betonst ja regelmäßig, daß Du möglichst alles auf der Textkonsole
erledigen möchtest.

Da kann man auch fragen:
Welche Verbesserungen erwartest Du da von einer dedizierten Grafikkarte?
Ein Notebook damit wäre sicherlich teurer.

You get what you pay for.

Wenn man die Kosten auf 10 Jahre oder 240 Monate umrechnet, dann
entspricht das pro Monat etwa soviel wie in Kanada 1 L Milch kostet oder
1,5 L Wasser.


Bernd Mayer




Bernd Mayer

unread,
Feb 4, 2023, 3:49:21 PM2/4/23
to
Am 04.02.23 um 00:49 schrieb Andreas Kohlbach:
> On Fri, 3 Feb 2023 14:58:55 +0100, Bernd Mayer wrote:
>>
>> Am 31.01.23 um 17:40 schrieb Andreas Kohlbach:
>>> Bei meiner alten Gurke (2012) ist die CPU auf der GPU (oder die GPU
>>> auf
>>> der CPU). Nennt sich APU *schauder*.
>>> Funktioniert. Aber irgendwie finde ich das meh.
>>
>> warum hast Du Dir diese "Gurke" denn beschafft wenn Du das meh findest?
>
> Katze im Sack.
>
> Ich kaufte meist das Preiswerteste, was es gab, da mir alle
> Laptops/Notebooks verschiedener Marken knapp außerhalb der Garantie
> aufgrund der harten Beanspruchung starben. Warum das Doppelte für ein
> Markengerät ausgeben, wenn ich es auch von dem vermuten würde?
>
> Wusste vor dem Kauf nicht, was ich kaufen würde.
>
> Besagtes Gerät hat erstaunlicherweise mittlerweile 10 Jahre auf dem
> Buckel. Viele Tasten, Lautsprecher und anderes sind hin, sodass ich es
> nur noch als Server im anderen Raum einsetze.
>
> CPU-Specs aus /proc/cpuinfo:
>
> model name : AMD E-300 APU with Radeon(tm) HD Graphics
> cpu MHz : 978.370
> cache size : 512 KB

Hallo,

die AMD E-300 war auch für 2012 eine schwache CPU.
https://www.cpubenchmark.net/cpu_lookup.php?cpu=AMD+E-300+APU&id=248
Unabhängig davon, daß da eine APU integriert ist.

Du betonst ja regelmäßig, daß Du möglichst alles auf der Textkonsole
erledigen möchtest.

Da kann man auch fragen:
Welche Verbesserungen erwartest Du da von einer dedizierten Grafikkarte?
Ein Notebook damit wäre sicherlich teurer.

You get what you pay for.

Wenn man die Kosten auf 10 Jahre oder 120 Monate umrechnet, dann

Kay Martinen

unread,
Feb 5, 2023, 9:30:02 AM2/5/23
to
Am 05.02.23 um 00:53 schrieb Andreas Kohlbach:
> On Sat, 4 Feb 2023 09:43:15 +0100, Marco Moock wrote:
>>
>> Am 03.02.2023 um 18:49:00 Uhr schrieb Andreas Kohlbach:
>>
>>> On Fri, 3 Feb 2023 14:58:55 +0100, Bernd Mayer wrote:
>>>>
>>>> warum hast Du Dir diese "Gurke" denn beschafft wenn Du das meh
>>>> findest?
>>>
>>> Katze im Sack.
>>
>> Normalerweise gibt der Hersteller an, was verbaut wird.
>
> Wenn man sich vor dem Kauf informiert. Ist aber wie beim Katzenkauf: Man
> wählt aus dem, was gerade da ist. Und man weiß nach dem Auspacken des
> Sacks eigentlich erst genau, was man da gekauft hat. ;-)

Oh warte, laß mich raten.... Eine KATZE!? ;-)

Für die du ja auch nur Erfüllungsgehilfe (Kühlschrank-Öffner) bist, oder?

Die Minimalsten Anforderungen an einen PC sind eben:

- Hat eine CPU
- Hat RAM
- Hat einen Festspeicher
- Hat In/out (Tastatur, Videoausgang)

Alles weitere liegt im Auge des Käufers - oder Nichtkäufers.

Läuft dein Felidae eigentlich mit CatOS? ;)

Andreas Kohlbach

unread,
Feb 5, 2023, 9:27:57 PM2/5/23
to
On Sun, 5 Feb 2023 15:23:25 +0100, Kay Martinen wrote:
>
> Am 05.02.23 um 00:53 schrieb Andreas Kohlbach:
>> On Sat, 4 Feb 2023 09:43:15 +0100, Marco Moock wrote:
>>>
>>> Normalerweise gibt der Hersteller an, was verbaut wird.
>> Wenn man sich vor dem Kauf informiert. Ist aber wie beim Katzenkauf:
>> Man
>> wählt aus dem, was gerade da ist. Und man weiß nach dem Auspacken des
>> Sacks eigentlich erst genau, was man da gekauft hat. ;-)
>
> Oh warte, laß mich raten.... Eine KATZE!? ;-)

Meist, ja.

> Für die du ja auch nur Erfüllungsgehilfe (Kühlschrank-Öffner) bist, oder?

Neulich wurde ich auch über den Unterschied zwischen dem Besitzer eines
Hundes und einer Katze aufgeklärt:

- Für den Hund ist der Besitzer das Herrchen.

- Für die Katze der Besitzer der Dosenöffner.

> Die Minimalsten Anforderungen an einen PC sind eben:
>
> - Hat eine CPU
> - Hat RAM
> - Hat einen Festspeicher
> - Hat In/out (Tastatur, Videoausgang)
>
> Alles weitere liegt im Auge des Käufers - oder Nichtkäufers.

Bei mir am Kaufpreis.

Besondere Ansprüche habe ich nicht, brauche kein Retina-Display,
Fingerprint-Reader oder etwas (MS Surface), was sich erst beim genauen
Hinsehen von der Tischfläche unterscheidet. Der die jeweils preiswerteste
Katze hat zum Zeitpunkt des Kaufs schon mehr, als ich brauche. Also kaufe
ich die billigste Katze (im Sack), ohne deren Spezifikationen vor dem
Kauf Augenmerk zukommen zu lassen.

Der Rechner vor dem erwähnten AMD (2012) hatte 2 GB RAM, der AMD 4. So
"viel", dass ich eine Weile spaßeshalber Swap ausschaltete. Ein paar
Updates und Installationen später musste ich es dann doch aktivieren.

> Läuft dein Felidae eigentlich mit CatOS? ;)

:-D
--
Andreas

Marcus Jodorf

unread,
Feb 5, 2023, 10:05:05 PM2/5/23
to
Kay Martinen <use...@martinen.de> schrieb:

>> Ganz abgesehen davon, daß schon extrem lange keiner mehr KVM-Switches
>> und Textconsolen professionell verwendet. IPMI/iDrac/ILO ist nun
>> wirklich schon fast Jahrzehnte komplett Standard. Überall und immer.
>
> Ja und nutzt du/man das auch direkt am Rack für den Physischen
> Konsolenzugriff... mit einem Laptop den du in den Management-Port des
> Netzwerk Switches steckst oder schleppst du einen Bildschirm und eine
> Tastatur mit um sie in die Front USB/VGA zu stöpseln die z.b. ein
> Proliant G5 darbietet.
>
> Oder ist im Rack evtl ein KVM-Switch integriert mit einer Schublade
> aus der beim raus ziehen dann der Flachbildschirm ausklappt und die
> Tastatur zugänglich wird? DAS hätte ich als Usus angesehen. Nicht
> mehr?
>
> Ich schrieb oben von Minimaler Textkonsole und meinte damit den
> direkten Lokalen Physischen Zugang zu einem beliebigen Server im Rack
> vor dem man grade steht.

Wozu? IPMI/iDrac/ILO überträgt Dir die Konsole des Servers an jeden
beliebigen Ort.

> Ersetzt dir das in 100% aller Wartungsfälle die physische Konsole des
> Servers?

Natürlich. Das ist die Konsole des Rechners, die da übertragen wird. Die
besseren Varianten wie iDrac managen Dir auch gleich den ganzen
Server. Laden z.B. alle Firmwareupdates runter und und spielen die ein.

> DANN wäre mir das in der Tat neu. Wenn man das heute im RZ so
> nutzt, Okay. Ich brauch es für meine paar Spielzeug-Server zuhause
> aber nicht.

> Natürlich ist klar das der Verzicht auf KVM und Switch, Kabel und
> Platz/Stromverbrauch pro Rack vermutlich locker 1-2 Tausend Euro ein
> sparen kann. Und wenn man Defekte Server einfach hart abschaltet, raus
> zieht und weg wirft dann ist das wohl auch kein Problem.
>
> TCO Rulez oder?

Warum sollte man defekte Server wegwerfen? Google & Co. mögen das
vielleicht so machen aber wenn man nicht zu den Läden gehört, die immer
Ersatzserver fertig rumliegen haben, dann wohl eher nicht.
Dank Wartungsvertrag steht ohnehin spätestens 4 Stunden später der Mann
mit den Ersatzteilen vor der Tür. (Server fliegen hier z.B. genau dann
raus, wenn die Wartungsverträge abgelaufen bzw. nicht mehr verlängerbar
sind.)

Ich hab im Büro z.B. gerade noch einen netten dicken älteren Dual Xeon
mit 128 GB liegen, den ich vielleicht noch als Backupserver im
nächstgelegenen Rechenzentrum recylen werde. Schwer übermotorisiert aber
ist nun mal überzählig ohne Wartungsvertrag.
120kg USV liegen da auch noch im Weg. Blöderweise mit fast neuwertigen
Akkus, weil wenige Monate vor Austausch noch sämtliche auf Garantie
getauscht.
Und in ein paar Wochen schon wieder der nächste fällig. Dual Xeon
E5-2640v3 mit 256GB RAM von 2015. Wartungsvertrag Ende der Fahnenstange
und damit Ende Produktivbetrieb. Mal schauen, ob ich für den auch noch
einen unkritischen Job finden kann. Interner Testserver oder so
vielleicht. Weil das Ding kann doch schon noch was.

> Für Remote View zwecke, Verteiltes Rechnen/CUDA, bitcoin Bro's, Crypto
> Kram oder als AI-Beschleuniger (Tensor Chips?) die damit allesamt
> keine physische Grafikausgabe am Gerät haben.
>
> Meintest du so was?

Ja. In der Regel ist das als AI Nachbrenner gedacht.

>> Mit Grafikkarten komplett zugepflasterte Server verkaufen sich
>> offenbar extrem gut, so daß es bei den großen Herstellen längst eine
>> etablierte Serverkategorie geworden ist.
>
> Ich hab auch darüber gelesen das ein Anbieter Server mit Spielen
> laufen lässt auf die sich (Zahlende) Kunden dann online IMO per
> Browser aufschalten können. Als alternative zum Spiel selbst kaufen.
>
> Wird so was On/OffPremise auch für Remote Desktop Clients verwendet?

Wie das mit den Remote-Game Servern funktioniert, weiß ich nicht, aber
für typische (Windows) RDP Server braucht man keine Grafikkarten.
Aber jede kleine Klitsche macht mittlerweile in AI und da sind dann
Server mit dicken Grafikkarten gefragt.

> Du meinst da ist keiner mehr der in seinem CV etwas von
> Grundkenntnissen in Assembler, Basic oder COMAL zu schreiben traute?
> Oder gar "Avantgardistischen" Sprachen wie C++, Java oder; aktuell;
> Rust?

Java scheint immer noch einigermaßen Standard an Unis. Zumindest sehe
ich das noch so gut wie immer im CV bei frischen Absolventen. Sonst noch
Python wg. AI natürlich und JS (oft auch react) ist noch gängig.
Komischerweise auch öfter noch php. Das ist das, was bei der Suche nach
inhouse Softwareentwicklern ständig auftaucht. C++ habe ich schon länger
nicht mehr gesehen.
Wenn ich nach Embedded Entwicklern suchen würde, würden vermutlich auch
wieder ein paar mit C (und halt C++) auftauchen, aber das kann ich nicht
wirklich beurteilen.

> Forth oder Lisp sind dann wohl auch nicht mehr vertreten, oder?

Bruhahah. ;-)

> Wenn du mir also vorwirfst ich wäre aus der Zeit gefallen dann liegt
> das nur an dem alten was ich hier an Hardware habe und das ich von
> neuerem entweder nicht viel halte, es nicht brauche und auch nicht das
> Geld habe oder investieren wollte um es zu kaufen. Was nicht bedeutet
> das ich davon nie gehört oder gelesen habe.

Ist mir schon klar. Ich habe ja selber ein kleines Computermuseum
hier. Aber ich ich verwende die alten Sachen nicht mehr produktiv. Rein
schon aus Effizienzgründen. Strom wir ja auch nicht günstiger.
Ich muß z.B. keinen alten Server laufen haben, wenn ich den Job auch mit
einem Cluster Raspies erledigen könnte.
Ein paar einfache VMs habe ich z.B. auch einfach auf meinem Wifi Router
als LXC laufen (3 x Debian). Der brauch nur minimal Strom und läuft eh
immer.

> "PowerBi"? Na, das muß es wohl geben wenn man immer mehr Daten
> anhäuft.

Das ist einfach nur grausam.

> Ich muß grade an die Funny IBM Adverts denken
> <https://youtu.be/kWN0MMUbfH0> speziell ab "Covered" :)

LOL. i-Series. Ich kenne die noch aus den AS/400 Zeiten. Bekannter von
mir war da Admin für die Dinger. Gewerbegebiet, Gewerbehalle, darin
mehrere große Glaskästen (große Räume).
3 x AS/400. Eine für Europa, eine für US/Südamerika, eine für Asien
Business und ein Glaskasten für die Admins.
War schon cool und sah aus wie im Spielfilm. War eine damals bekannte
Fashionfirma.

Andere Firma später: Halbes Dutzend i-Series im Keller. Waren aber quasi
nur die Vorstufe für einen gigantischen Bestand an Mainframes in den
USA. Logistikbranche. Läuft heute noch alles über Mainframes.

Und ganz, ganz früher hab ich mal als Schüler bei einer Firma im
produzierenden Gewerbe in den Ferien gejobbt, die hatten tatsächlich
eine ES/9000 im Keller. Serious Business! Ganz viel grün liniertes
Endlospapier aus den Zeilendruckern.

Dagegen ist der heutige Bestand in Firmenserverräumen echt unglaublich
langweilig geworden.

Wobei ich sagen muß, daß ich hier in einem Kaff sitze und aufgewachsen
bin, wo dann auch noch diverse nahmhafte Firmen aus der Computerbranche
früher quasi übereinander gestolpert sind. Und in den zwei Elektronik-
und Computerläden der Stadt hat man als Schüler dann damals zwangsläufig
die ganzen Leute kennengelernt, die da gearbeitet haben, wenn man da den
halben Tag immer rumgehangen hat.
Weil für Atari ST und Amiga haben sich damals alle interessiert und das
war noch alles entspannter. Als nerdiger Schüler wurde man dann auch
schon mal informell eingeladen, sich interessante Sachen
anzuschauen. Neueste Sun Workstations zum Beispiel. Und das zu Zeiten,
wo man selbst als Amiga Nutzer noch PC Nutzer ob der erbärmlichen Grafik
bemitleidet hat.


Gruß,

Marcus
⚂⚃

Hermann Riemann

unread,
Feb 6, 2023, 3:09:55 AM2/6/23
to
Am 05.02.23 um 15:23 schrieb Kay Martinen:

> Die Minimalsten Anforderungen an einen PC sind eben:

Arduino Uno:

> - Hat eine CPU

aRmega328

> - Hat RAM

2 KB SRAM

> - Hat einen Festspeicher

1 KB EEROM + 32 kB Flash

> - Hat In/out (Tastatur, Videoausgang)

intern Rest Taster+ eine LED
extern gibt es über I2C Tastatur und Display.

Hermann
der an Emulatoren denkt, deren Hauptspeicher
in RAM über einen seriellen Bus liegt.

--
http://www.hermann-riemann.de

Claus Reibenstein

unread,
Feb 6, 2023, 8:13:19 AM2/6/23
to
Andreas Kohlbach schrieb am 06.02.2023 um 03:27:

> - Für den Hund ist der Besitzer das Herrchen.
>
> - Für die Katze der Besitzer der Dosenöffner.

Hunde haben Herrchen, Katzen haben Personal ;-)

Gruß
Claus

Kay Martinen

unread,
Feb 6, 2023, 9:20:02 AM2/6/23
to
Am 06.02.23 um 09:09 schrieb Hermann Riemann:
> Am 05.02.23 um 15:23 schrieb Kay Martinen:
>
>> Die Minimalsten Anforderungen an einen PC sind eben:
>
> Arduino Uno:

Ich schrieb von "PC" aber wenn du's so willst, dann

COBOLD "PeeZee" :)

>> - Hat eine CPU
>
> aRmega328

6502 NMOS 1MHz

>
>> - Hat RAM
>
> 2 KB SRAM

2-64kB

>> - Hat einen Festspeicher
>
> 1 KB EEROM + 32 kB Flash

AFAIR 2kB EEPROM

>> - Hat In/out (Tastatur, Videoausgang)
>
> intern Rest Taster+ eine LED
> extern gibt es über I2C Tastatur und Display.

Nur 1-2 6532 RIOT
Daran aber 6*7Segment Display und Tastenmatrix
eine TTL-Serielle
Ein Kassettenrekorder-Interface (supertape)
rest I/O = Buskarte

BTDT

> Hermann
> der an Emulatoren denkt, deren Hauptspeicher
> in RAM über einen seriellen Bus liegt.

Dennoch sind beides keine PC und auch nicht wirklich HCs.

Thema verfehlt, 6, Setzen. ;-)

Bernd Mayer

unread,
Feb 6, 2023, 10:44:41 AM2/6/23
to
Am 05.02.23 um 01:02 schrieb Andreas Kohlbach:
> On Sat, 4 Feb 2023 21:49:20 +0100, Bernd Mayer wrote:
>>
>> Am 04.02.23 um 00:49 schrieb Andreas Kohlbach:
>>
>> die AMD E-300 war auch für 2012 eine schwache CPU.
>> https://www.cpubenchmark.net/cpu_lookup.php?cpu=AMD+E-300+APU&id=248
>> Unabhängig davon, daß da eine APU integriert ist.
>
> Danke. Obwohl ich da alle CPUs bis heute sehe.

Hallo,

Siehe: https://www.cpubenchmark.net/cpu.php?cpu=AMD+E-300+APU&id=248

Die liegt da auf Platz 3723 von insgesamt 4068 seit 2009.
Der niedrige CPU-Takt (Clockspeed: 1.3 GHz) spielt dabei eine Rolle.
Der Sockel FT1 wird da gar nicht meh aufgeführt - smiley.


Bernd Mayer

Marco Moock

unread,
Feb 13, 2023, 5:29:51 AM2/13/23
to
Am 31.01.2023 um 14:32:51 Uhr schrieb Marco Moock:

> GRUB_CMDLINE_LINUX_DEFAULT="snd_hda_intel.power_save_controller=0"

Die sit weiterhin aktiv.

> Es soll wohl so sein, dass diese Soundkarte nen Stromsparmodus hat,
> der für diesen Ausfall sorgt. Aktuell ist alles ok, ich beobachte die
> Situation weiter.

Es kommt ab und zu wieder. heute beim Aufruf von guvcview. Es war aber
diesmal nur der VGA-Monitor (eDP1) betroffen.

Marco Moock

unread,
Feb 13, 2023, 5:31:57 AM2/13/23
to
Ursache gefunden:

In guvcview kann man die Audio-API einstellen. Standard ist PORTAUDIO.
Stellt man auf Pulseaudio, ist das Problem weg.

Marco Moock

unread,
Feb 19, 2023, 3:34:59 AM2/19/23
to
Ich habe nun per Bootoption intel_idle.max_cstate=1 die C-States der
CPU deaktiviert. Das PortAudio-Problem bleibt. Die Abschaltungen im
Normalbetrieb sind bisher nicht mehr aufgetreten.

Meines Erachtens sind entweder die Treiber oder die Kombi aus
CPU/GPU/Soundkarte gänzlich nicht ausgereift.

0 new messages