Am 11.08.23 um 14:01 schrieb Stefan Ram:
> Um zu sehen, inwieweit Sprachmodelle denken können, stelle ich
> manchmal gerne Fragen, deren Antwort sich vermutlich nirgends
> vorgefertigt findet. Wir wissen, daß traditionelle KI-Systeme
> (wie cyc) Schwierigkeiten mit den vielen kleinen trivialen
> Wahrheiten des Alltags, die niemand ausspricht, weil sie so
> selbstverständlich sind, haben, etwa, daß man Bücher nicht ißt.
In dem Zusammenhang fällt mir eine alte Dokumentation aus dem ÖR ein.
Das war AFAIR noch vor den 2000'n und geraten würde ich auf die 80'er
bis 90'er tippen. Es ging um ein KI System dessen name ich als SEUCK
erinnere, aber beim nachlesen bei wikipedia war's wohl das
Wissensbasierte System Cyc das du oben erwähnst. Douglas Lenat kommt
auch hin als Name des Projektleiters den ich erinnerte.
https://de.wikipedia.org/wiki/Cyc
Man vertrat in dieser Doku die Ansicht das man einer KI etwas über Dinge
beibringen müßte damit sie treffende Zuordnungen finden kann. Das machte
man Tagsüber und Nachts hat die KI das dann wohl verarbeitet und
versucht Schlüsse zu ziehen und offene Fragen zu präsentieren- die auch
oft Kurioses oder Absurdes enthielten.
Ich erinnere mich da noch an diese.
- "Die meisten Menschen sind Prominent" weil man nur Promis als
Beispiele nahm.
- "Als Abraham Lincoln in Washington war, waren auch sein Linke Fuß und
die Rechte Hand? dort" :-)
Das zweite offenbart m.E. das dieses System (noch) nichts über
untrennbare Subjekte wußte, man ihr einen Splatterfilm (Textfassung)
verfütterte oder es vielleicht eine VT gab nach der Lincoln in
Einzelteile zerlegt wäre.
Und das erste... nun ja. Wenn ich überlege das dies Jahrzehnte her ist
und man heute KI-Systeme mit Daten aus dem Internet füttert: Es wundert
mich eigentlich das dabei nicht viel mehr "Asoziale Bastarde" (salopp
gesprochen) heraus kamen. Ich erinnere mich nur an ein oder zwei die
wegen so was offline genommen wurden.
Und in dem Zusammenhang meine ich das eine KI ohne einen Körper dessen
Aktionen und Reaktionen sie erst mal kennen lernen muß (wie ein
neugeborenes Menschenkind) in Menschlicher Hinsicht immer benachteiligt
sein wird. Ohne dieses Feedback ist ein "Geist in der Maschine" m.E.
unberechenbar (was ein Witz an sich ist).
Die Körperlichkeit definiert die Lebensdauer und damit die Sterblichkeit
als Unausweichlich. Da liegt es nahe das eine KI ohne Körper in Zukunft
einen Gott-Komplex entwickeln könnte. Einfach weil sie ja faktisch
unsterblich wäre - so lange noch arbeitende Computer, Netze und Energie
vorhanden sind.
Wie bringt man einer KI die Angst vor dem Tod (durch einen EMP?) bei?
Und, will man das überhaupt? Oder treibt diese Limitierung nicht eher
den Wunsch nach überleben (um jeden Preis?) an?
Ja, ich weiß das geht jetzt eher weit in die Science-Fiction. Aber
"Sprachmodelle und Denken" ist es m.E. ebenso. Und grundlegend geht's
dabei ja um das was-wäre-wenn in einer Möglichen Zukunft.
Wenn ich mir <
https://de.wikipedia.org/wiki/Douglas_Lenat> durch lese
stolpere ich aber speziell darüber das ein ehemalige NSA Chef der jetzt
eine Firma (MCC) leitet sein Finanzier ist oder war.
Ich meine das verheißt zumindest nichts gutes aber das ist bei Forschung
an KI ja sowieso der Fall.
Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)