Am 03.02.23 um 04:24 schrieb Marcus Jodorf:
> Kay Martinen <
use...@martinen.de> schrieb:
>
>>>> Nennt sich APU *schauder*.
>>>>
>>>> Funktioniert. Aber irgendwie finde ich das meh.
>>> Warum meh?
>>
>> Na vielleicht weil: Wenn der GPU Teil überhitzt brennt die CPU mit
>> durch und umgekehrt. Wenn's nur Teilausfälle sind kann man evtl. nicht
>> mal eine Externe Graka erfolgreich einsetzen.
>
> Wenn die Kühlung versagt und was durchbrennt, dann ist das ein
> Designfehler. Normal brennt heute auch nichts mehr durch sondern das
> wird runtergetacktet. Verstorbener CPU Kühler ist schon lange kein
> Todesurteil mehr. Sehr lange.
Ich weiß. So ungefähr seit Pentium 3 oder Pro. Das kann dann den
lustigen Nebeneffekt des kompletten DoS haben. Z.b. hier ein alter
Laptop mit P4 Mobile und Geforce. Lüfter dreht aber dessen Tacholeitung
scheint nicht mehr erkannt zu werden. Einschalten... ein paar Sekunden
betrieb... KLACK. BIOS oder CPU schalten ab. Immer!
Und das reine Runter takten kann m.W. auch so weit gehen das ein
Taschenrechner schneller wäre. Aber heute löst die Software ja jedes
Hardware-Problem. :-) meh!
>> Grafik gehört für mich auch nicht in eine CPU sondern auf eine Extra
>> Karte. Jedenfalls bei Desktops o.a. die nicht headless laufen.
> Solange man nicht Höchstleistungsgrafik braucht (oder Gamer ist), ist
> separate Graka heutzutage einfach Quatsch und vollkommen ineffizient.
Zustimmung. Obiges war nur meine Persönliche Meinung zu dem was ich
nutzen wollen würde.
>> Bei Servern sitzt das eh im BMC und wird meist nur Remote genutzt.
>
> Ja, die gute alte G200 lebt immer noch. Hab auch noch ein paar echte
> hier rumliegen. ;-)
G200 AFAIR nicht, aber eine MGA 400 müßte ich auch noch haben. :)
Cirrus Logic und WD sind bei älteren Geräten auch noch vertreten.
>> Aber da reicht auch eine Textkonsole über einen KVM-Switch zur Lokalen
>> steuerung und hires-Grafik und 3D wird da nicht erwartet.
>
> Manchmal (meistens ;-) bist Du echt aus der Zeit gefallen. Aber hier mal
> sowas von komplett und vollständig.
[Loriot] "Ach!" :-)
Ich sprach oben von Textkonsole und "da reicht auch" was nicht heißt das
es nicht anders ginge oder ich nicht um alternative Zwecke wüßte!
> Ganz abgesehen davon, daß schon extrem lange keiner mehr KVM-Switches
> und Textconsolen professionell verwendet. IPMI/iDrac/ILO ist nun
> wirklich schon fast Jahrzehnte komplett Standard. Überall und immer.
Ja und nutzt du/man das auch direkt am Rack für den Physischen
Konsolenzugriff... mit einem Laptop den du in den Management-Port des
Netzwerk Switches steckst oder schleppst du einen Bildschirm und eine
Tastatur mit um sie in die Front USB/VGA zu stöpseln die z.b. ein
Proliant G5 darbietet.
Oder ist im Rack evtl ein KVM-Switch integriert mit einer Schublade aus
der beim raus ziehen dann der Flachbildschirm ausklappt und die Tastatur
zugänglich wird? DAS hätte ich als Usus angesehen. Nicht mehr?
Ich schrieb oben von Minimaler Textkonsole und meinte damit den direkten
Lokalen Physischen Zugang zu einem beliebigen Server im Rack vor dem man
grade steht.
Klar kann man sich auch remote via ILO aufschalten, sieht dann z.b. die
Blaue LED des Proliant leuchten um zu prüfen ob man auch die richtige
Kiste erwischt hat. Mit SoL via IPMI hab ich da keine Praxis. Nur mit
dem Telnet/SSH Zugang zur ILO = CLI.
Ersetzt dir das in 100% aller Wartungsfälle die physische Konsole des
Servers? DANN wäre mir das in der Tat neu. Wenn man das heute im RZ so
nutzt, Okay. Ich brauch es für meine paar Spielzeug-Server zuhause aber
nicht.
Natürlich ist klar das der Verzicht auf KVM und Switch, Kabel und
Platz/Stromverbrauch pro Rack vermutlich locker 1-2 Tausend Euro ein
sparen kann. Und wenn man Defekte Server einfach hart abschaltet, raus
zieht und weg wirft dann ist das wohl auch kein Problem.
TCO Rulez oder?
> Standard der letzten Jahre sind auch Serverbaureihen, die speziell
> darauf ausgelegt sind, möglichst viele Grafikkarten aufnehmen zu können.
Für Remote View zwecke, Verteiltes Rechnen/CUDA, bitcoin Bro's, Crypto
Kram oder als AI-Beschleuniger (Tensor Chips?) die damit allesamt keine
physische Grafikausgabe am Gerät haben.
Meintest du so was?
> Genauso, wie Storage Server für möglichst viel Massenspeicher schon lange
> normal sind.
Ich habe zwei StorageWorks MSA im Keller und weiß auch das neuere Geräte
2,5 oder gar 1.8" in rauen Mengen aufnehmen, heute oft SSD oder gleich
andere schnellere. Was man halt in einem SAN oder NAS so brauchen kann.
> Mit Grafikkarten komplett zugepflasterte Server verkaufen sich offenbar
> extrem gut, so daß es bei den großen Herstellen längst eine
> etablierte Serverkategorie geworden ist.
Ich hab auch darüber gelesen das ein Anbieter Server mit Spielen laufen
lässt auf die sich (Zahlende) Kunden dann online IMO per Browser
aufschalten können. Als alternative zum Spiel selbst kaufen.
Wird so was On/OffPremise auch für Remote Desktop Clients verwendet?
> Weil KI (neudeutsch AI) ist seit geraumer Zeit das Ding schlechthin und
> natürlich ist da der Bedarf an GPU-Nachbrennern extrem. Ganz früher
> waren das mal nur die Cryptoheinis, die sowas haben wollten (bevor sie
> auf ASICS umgestiegen sind und jetzt endlich eingehen) - heute will das
> aber beinahe jeder.
Das finde ich auch "meh". Speziell die Energieverschwendung die mit
Crypto-"Geld" einher geht. Und wohin uns KI/AI führen wird ist ja noch
nur ansatzweise absehbar an den Diskussionen um ChatGPT Dal-E o.a.
Spezial-Idiotensystemen.
Ich/wir währen wohl sehr überrascht wenn sich daraus eine wirklich
starke KI entwickeln würde. Eine die dem Namen auch gerecht würde.
> Ist einfach der Trend - immer wenn ich neue Junior-Softwareentwickler
> suche, kann ich 80% der Bewerber gleich in die Tonne hauen, weil die
> alle immer nur Schwerpunkt AI an der Uni hatten und auch nichts anderes
> machen wollen. Die CVs, wo das nicht immer sofort prominent drin ist,
> werden langsam echt schon etwas selten.
Du meinst da ist keiner mehr der in seinem CV etwas von Grundkenntnissen
in Assembler, Basic oder COMAL zu schreiben traute? Oder gar
"Avantgardistischen" Sprachen wie C++, Java oder; aktuell; Rust?
Forth oder Lisp sind dann wohl auch nicht mehr vertreten, oder?
Bis auf die drei Erstgenannten hab ich mich mit den weiteren aber auch
noch nie befaßt, Nur drüber gehört, gelesen und teils benutzt. Z.b. um
eine alte ILO richtig nutzen zu können, oder den Configmaker/ClusterMan
alter Catalyst 29xx. Die wollen jre 1.3 oder 1.4 und tun es nicht mit
neuerem. Aber ich strebe auch keine Karriere in der IT an. Nicht mehr.
Wenn du mir also vorwirfst ich wäre aus der Zeit gefallen dann liegt das
nur an dem alten was ich hier an Hardware habe und das ich von neuerem
entweder nicht viel halte, es nicht brauche und auch nicht das Geld habe
oder investieren wollte um es zu kaufen. Was nicht bedeutet das ich
davon nie gehört oder gelesen habe.
Und manchmal bin ich auch meinungs-Pluralist. ;-)
> „Spezialisten“ frisch von der Uni kann ich Dich aus meinen
> Bewerberstapeln sofort totschmeißen
Oh no! :)
> (und natürlich mit „Data Analysts“ - die sind mittlerweile auch die
> Pest. Teilweise nicht einmal wirklich tiefgreifendes Wissen in Sachen
> Statistik aber dafür PowerBi-Profi -- und das teilweise sogar von
> durchaus nominal nicht mal schlechten internationalen Unis).
"PowerBi"? Na, das muß es wohl geben wenn man immer mehr Daten anhäuft.
Ich muß grade an die Funny IBM Adverts denken
<
https://youtu.be/kWN0MMUbfH0> speziell ab "Covered" :)