Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

Intelligenz vs. scheinbare Intelligenz

74 views
Skip to first unread message

Gerke Preussner

unread,
Apr 13, 2000, 3:00:00 AM4/13/00
to
aus Searle's gedankenexperiment des chinesischen zimmers
entstand die frage, ob eine maschine, die intelligent zu
sein _scheint_ auch tatsächlich intelligent ist.

worin besteht denn da nun der unterschied?

ich kann von keinem objekt mit sicherheit wissen, ob
es intelligent ist oder nicht. wie kann ich also behaupten,
dass beispielsweise ein kind, das gehen oder sprechen lernt
intelligent ist?

im rahmen unserer möglichkeiten der wahrnehmung haben wir
doch auch hier höchstens die macht, zu behaupten, dass
dieses kind intelligent zu sein _scheint_ (z.b. weil wir
es mit hilfe unserer augen sehen oder mit unseren ohren
hören können - wobei 'sehen' und 'hören' kognitive produkte
darstellen).

bedeutend schwieriger wird das ganze dadurch, dass wir
bis jetzt keine operationale definition von intelligenz
haben. was soll also die unterscheidung zwischen intelligenz
und scheinbarer intelligenz, wenn wir nicht mal genau sagen
können, worüber wir überhaupt sprechen?

dass eine maschine demzufolge nur in der lage sein kann,
intelligent zu erscheinen (in dem sinne, dass sie so
reagiert, wie man es von einem menschen erwartet), jedoch
niemals wahrhaft intelligent sein wird, kann ich unter
diesen umständen überhaupt nicht nachvollziehen.

meiner meinung nach existiert für diese behauptung weder
eine grundlage, noch ein logischer zusammenhang. weiterhin
sehe ich für uns keine möglichkeit, zwischen scheinbarer
und wahrhafter intelligenz zu unterscheiden, weshalb für
mich beide ausdrücke äquivalent sind (von deren fehlender
unbefriedigenden definition einmal abgesehen).

eine weitere frage, die sich mir da stellt ist, inwiefern
ich für mich selbst davon ausgehen kann, dass ich
intelligent bin? ich kann doch auch hier nur behaupten,
dass ich persönlich intelligent zu sein _scheine_.

könnte uns ein sinnesorgan (in welcher form auch immer)
dabei helfen, mit sicherheit festzustellen, dass wir
intelligent sind und alles nicht nur den anschein hat,
als ob es so ist? welche art von organ wäre dafür nötig?

ich gehe davon aus, dass so ein organ nicht existieren
kann, aber was wäre dann nötig, um diese aufgabe zu
erfüllen? eine seele? oder nur ein komplexer automat?

vielleicht kann mir ja mal jemand auf die sprünge helfen...

j3rky

Mondlied

unread,
Apr 13, 2000, 3:00:00 AM4/13/00
to
hallo

ich bin zwar nicht (direkt) vom fach, aber ich wuerd trotzdem gern meine
gedanken weitergeben. Ich beschaeftige mich viel - u.a. im rhamen meines
studiums - mit KIs
und allen Problemen drumherum. In dem Zus. hat ein Prof mal gesagt, das
Intelligenz das ist, was es messen kann - oder so aehnlich.

Im Prinzip koenne wir nur eine Definiton aufstellen, das Intelligenz -
fuer einen Menschen - bedeutet bestimmte Dinge zu beherschen und dies
ueber Tests in Schichten aufgliedern. Insofern bin ich auch der Meinung,
das wir nie feststellen werden ob ein Rechner intelligenz ist - sofern
er sich nicht grad wie ein Mensch (++Emotionen etc.) verhaelt - denn wer
kann schon beweisen, das Programme nicht von sich aus etwas wie
Intelligenz - nur eben auf einer anderen Ebene - entwickeln.

Ich arbeite z.B. in einem Projekt mit, das ein Agentensystem entwickelt
und
bin im speziellen fuer die Progr. des einzelnen Agenten zustaendig. Wir
geben ihnen als Handwerkzeug ein sog. ClassifierModell mit auf dem Weg
und ueber die Interaktion untereinander und durch Belohnung/Bestrafung
durch eine _Gott-Funktion_ entwickeln sie von sich aus ein _Gedaechtnis_
und niemand von uns kann behaupten ob dieses nicht vielleicht auch ein
Bewusstsein enthaelt, auch wenn es fuer uns nur simple
Wenn-Dann-Datensammlungen sind. Im Film Ghost in the Shell (eigentlich
ein Anime) geht es auch unter anderem um dieses Thema und es wird die
These aufgestellt, das unser Bewusstsein nur die Konsequenz unserer
gesammelten Erfahrungen und Sinneseindruecke ist... und sowas koennen
auch Computer.

M.BLUM...@cl-hh.comlink.de

unread,
Apr 13, 2000, 3:00:00 AM4/13/00
to
Es begab sich am 13.04.00, als der/die ehrenwerte gerke.preussner
(gerke.p...@gmx.net) um 15:27 in /DE/SCI/PHILOSOPHIE
zum Thema "Intelligenz vs. scheinbare Intelligenz" eine Mail gebar:

> aus Searle's gedankenexperiment des chinesischen zimmers
> entstand die frage, ob eine maschine, die intelligent zu

> sein _scheint_ auch tatsaechlich intelligent ist.


>
> worin besteht denn da nun der unterschied?

Intelligenz ist die Faehigkeit eines Organismus zur Loesung von
Lebensproblemen und zur konstruktiven Erfassung und Veraenderung der
Lebenswelt. Intelligenz meint immer einen Handlungesprozess aktiver
Auseinandersetzung mit der Welt unter Voraussetzung bestimmter
Erfahrungen. Intelligenz entwickelt sich auf Basis bestimmter Anlagen
des Organismus durch die Sozialisation im Bezugsrahmen konkreter
Lebensbewaeltigung. Daher kann Intelligenz auch nicht rein individuell
bestimmt werden, sondern nur in gesellschaftlicher Praxis, in der Art
und Weise, wie - bei untermenschlichen Organismen - die Umwelt oder
beim Menschen die Welt verarbeitet wird.

Maschinen sind keine Organismen und entwickeln daher auch keine
Intelligenz. Der Ursprung der Intelligenz beim Menschen sind die
gegen Ende des ersten Lebenshalbjahres einsetzenden sensomotorischen
Beziehungen zwischen Subjekt und Welt - oberhalb blosser
Reflexionshandlungen, auf deren Basis dann die praeverbale,
sensomotroische Intelligenz in der zweiten Lebensjahrhaelfte sich
entwickelt. Die naechste Phase - vom Erlernen der Sprache bis zum
Ausgang der Adoleszenz - entwickelt auf den Stufen symbolischem und
vorbegrifflichem, anschaulichem und begrifflichem Denkens, der
vollentfalteten Intelligenz.

mfg Martin Blumentritt

Homepage: <http://www.comlink.de/cl-hh/m.blumentritt>

"Gibt es Abstossenderes als einen Konservativismus, der ausser
den Konten und Privilegien seiner Anhaenger nur noch sich
selbst bewahrt?"(Ulrich Sonnemann)
___
_Kein Volk * Kein Fuehrer * Kein Vaterland * Logout Fascism_

Joachim Pimiskern

unread,
Apr 13, 2000, 3:00:00 AM4/13/00
to
Hallo Gerke,

Gerke Preussner schrieb in Nachricht <8d4i84$75i4l$1...@fu-berlin.de>...


>aus Searle's gedankenexperiment des chinesischen zimmers
>entstand die frage, ob eine maschine, die intelligent zu

>sein _scheint_ auch tatsächlich intelligent ist.


>
>worin besteht denn da nun der unterschied?


diese Fragestellung kommt mir so vor, wie wenn man
nach dem Unterschied zwischen einer echten Addition
und einer simulierten fragt. Im Bereich der geistigen
Dinge ist es egal, ob ein Prozeß stattfindet oder
ob er nur simuliert wird. Wichtig ist nur die
Wirkung.

Grüße,
Joachim

--
*** Go - das 4000 Jahre alte asiatische Brettspiel ***
Einrichtung der deutschsprachigen Newsgroup de.rec.spiele.go
-->> http://www.dana.de/mod/cfv/1.CfV-de.rec.spiele.go.txt
[ JA ] de.rec.spiele.go Jetzt abstimmen!

Uwe Flehmig

unread,
Apr 13, 2000, 3:00:00 AM4/13/00
to
Hallo Gerke,

Gerke Preussner schrieb:

> aus Searle's gedankenexperiment des chinesischen zimmers
> entstand die frage, ob eine maschine, die intelligent zu
> sein _scheint_ auch tatsächlich intelligent ist.
>
> worin besteht denn da nun der unterschied?
>

> ich kann von keinem objekt mit sicherheit wissen, ob
> es intelligent ist oder nicht. wie kann ich also behaupten,
> dass beispielsweise ein kind, das gehen oder sprechen lernt
> intelligent ist?

Du siehst das daran, daß sich das Kind in die gängigen
Sozialisationsmuster einfügt. Am wichtigsten - und augenfälligsten - ist
dabei sicher die Fähigkeit, sich der Sprache zu bedienen bzw.
sprachliche Strukturen als solche zu begreifen, wie rudimentät das zu
Beginn auch immer sein mag.
Die Wortgruppe "intelligent/Intelligenz" geht auf lat. "inter-legere"
zurück, was man etwa so übersetzen kann: Einsicht erhalten, erkennen,
verstehen. Genaugenommen bedeutet es "zwischen [dem und dem] wählen",
also abwägen können, Alternativen erfassen usw.. Daß das Verstand
voraussetzt, muß einleuchten; denn um etwa bei der Aufforderung "geh'
auf's Töpfchen" nicht irgendeinen Topf zu besteigen, sondern genau jenen
aufzusuchen, der zur Verrichtung der Notdurft dient, hat bereits das
Kleinkind hinlänglich Verstand, um differenzieren zu können, was mit
dieser Äußerung *gemeint* ist. Will sagen, es besitzt Intelligenz. -
Zwar, folgt man Wittgenstein, verhält es sich so, daß wir mehr oder
weniger dazu "abgerichtet" werden, solche Sprachspiele zu verstehen;
aber als Resultat bleibt doch zu konstatieren, daß wir die Bedeutung
solcher Äußerungen eben doch - jeweils kontextabhängig - verstehen
können (denn es wäre ja denkbar, daß z.B. bei einem Spiel, tatsächlich
mal ein "normales" Töpfchen zu besteigen wäre, was das Kind dann in der
Regel auch richtig realisiert).
Insofern ist der Mensch disponiert, intelligent zu sein; er kann das,
sprich; *das* muß er nicht lernen, sondern sozusagen nur die Inhalte
intelligenten Verhaltens, die Form dagegen, intelligent sein zu können,
ist seine Disposition.

> im rahmen unserer möglichkeiten der wahrnehmung haben wir
> doch auch hier höchstens die macht, zu behaupten, dass
> dieses kind intelligent zu sein _scheint_

Nein! Wenn es das richtige Verhalten an den Tag legt, sprich, wenn es
den Anforderungen des Sprachspieles genügt, dann *ist* es intelligent.
Das scheint nun wahrhaftig nicht nur so. Intelligentes Verhalten ist ja
genau das, was die obige etymologische Ableitung hergibt. Und im
Übrigen: wenn Du nicht bereits unterstelltest, daß es außer Dir selbst
noch andere intelligente Wesen gäbe, hättest Du doch wohl kaum diese
Mail abgeschickt, oder?

> (z.b. weil wir
> es mit hilfe unserer augen sehen oder mit unseren ohren
> hören können

Das ist - gelinde gesprochen - Unsinn.

> - wobei 'sehen' und 'hören' kognitive produkte
> darstellen).

Sehen- und Hören(können) sind doch keine kognitiven Produkte (was soll
das überhaupt sein, ein 'kognitives Produkt'?). Es sind vielmehr
sinnliche Modi der Wahrnehmung.

> bedeutend schwieriger wird das ganze dadurch, dass wir
> bis jetzt keine operationale definition von intelligenz
> haben. was soll also die unterscheidung zwischen intelligenz
> und scheinbarer intelligenz, wenn wir nicht mal genau sagen
> können, worüber wir überhaupt sprechen?

1. gibt es sehr wohl eine Vorstellung davon, was Intelligenz sei.
2. dreht sich der Streit m.E. (in Hinblick auf Searle) kaum um
"wirkliche" vs. "scheinbare" Intelligenz; sondern vielmehr geht es um
den Ggs. von menschlicher und künstlicher Intelligenz, oder, noch
genauer, darum, ob ein solcher Ggs. oder Unterschied überhaupt besteht.
Das Hauptproblem dabei ist meiner bescheidenen Meinung nach, daß die
KI'ler wegen ihrer defizienten Vorstellung davon, was Intelligenz (und
"Verstehen" bzw. "Bewußtsein) sei, eine vollkommen unsinnige Debatte vom
Zaume reißen. Denn tatsächlich *verstehen* sämtliche bis heute gebauten
Maschinen natürlich überhaupt nichts. Sondern sie arbeiten Algorithmen
ab. Setzt man ihnen ein Problem vor, das programmtechnisch nicht
vorgesehen ist, ist es mit dem Verstehen schnell vorbei. Der Schluß, ein
Mensch ist intelligent, wenn er rechnen kann ---> also ist eine Maschine
intelligent, weil sie auch rechnen kann, ist unsinnig; und zwar, weil
die Fähigkeit, intelligent zu sein (also *verstehen* zu können),
überhaupt nichts mit Rechnenkönnen zu tun hat.
Etwas verstehen können bedeutet doch nicht, rechnen, schreiben, lesen,
kalkulieren etc. zu beherrschen (dies sind alles Anwendungen der
Fähigkeit, verstehen zu können); sondern vielmehr, dazu in der Lage zu
sein, ein sinnlich oder symbolisch Gegebenes mit Bedeutungshaftigkeit
versehen zu können. Und der Witz dabei ist, daß dieses sinnlich oder
symbolisch Gegebene je nach Lage der Dinge und kontextspezifisch ganz
heterogene Bedeutungen annehmen kann. Verstehen wäre also im weitesten
Sinne die Fähigkeit, an sich bedeutungsoffene Data in spezifische
Bedeutungen zu transformieren - *und* (und das ist besonders wichtig)
diesen Prozess *bewußt* zu erleben, also im Wissen stehend, daß bedeutet
wird, zu bedeuten.
Meinst Du im Ernst, daß ein Computer "weiß", was es bedeutet, wenn er am
Ende einer statistischen Auswertung zu dem Ergebnis kommt, daß es im
Konzern X viertausendzweihundertfünfundsechzig Personalstellen zu viel
gibt? Meinst Du, er weiß, *warum* er diese statistische Auswertung
errechnet? Und glaubst Du wirklich, daß er weiß, daß er gerade diese
Auswertung erstellt? Womit, oder wodurch, *weiß* er das? Hat er etwa
Selbstbewußtsein? Ein Ich? Und *wie* ist das, dieses Computer-Ich? So
wie mein Ich, daß sich dessen vollkommen bewußt ist, gerade über
Verstehen zu reflektieren? Hast Du schon mal einen Computer gesehen, der
über das Verstehen reflektiert? Der sich im Reflexionsakt dessen absolut
sicher ist, daß er es ist, der da über's Verstehen reflektiert?
Also ich persönlich habe noch nicht einmal einen gesehen, der auch nur
das Wort "Verstehen" in seinen diversen Bedeutungshorizonten verstehen
könnte. Im besten Falle kann er mir Alternativen z.B. der Übersetzung
anbieten (etwa die in den beiden Äußerungen: 1. "Verstehst Du mich?"
[wenn einer nicht sicher ist, ob der andere ihn akustisch vernimmt] vs.
2. "Verstehst Du denn den Zusammenhang nicht?" [wenn einer auf der
langen Leitung steht]. Und ganz konfus wird es ja wohl für den ach so
intelligenten Rechner, wenn z.B. Satz 1 in einem ganz anderen Kontext
phonetisch identisch geäußert wird, etwa da, wo jemand fragt, ob er
hinsichtlich dessen, was er meint, verstanden wurde). Entscheidend ist,
daß die Maschine nicht entscheiden kann (jedenfalls nicht ohne
Zusatzinfos), wie hier jeweils das Wort "Verstehen" *gemeint* ist. Aber
eben das kann der Mensch, und deshalb wird er vollkommen zurecht
intelligent genannt. Im Gegensatz dazu ist die Maschine ein Klumpen
tumber Materie, wer da von Intelligenz oder Verstehen faselt, hat zu
viel "Star T(D)reck" gesehen.

> dass eine maschine demzufolge nur in der lage sein kann,
> intelligent zu erscheinen (in dem sinne, dass sie so
> reagiert, wie man es von einem menschen erwartet), jedoch
> niemals wahrhaft intelligent sein wird, kann ich unter
> diesen umständen überhaupt nicht nachvollziehen.

Jetzt hoffentlich schon.
Es sei noch angemerkt, daß "intelligent sein", "verstehen können" etc.,
als reine Formen, als menschliche Dispositionen, als Leistungen eines
wie auch immer gearteten Bewußtseins niemals nur *bestimmte*
Ausprägungen wie Rechnenkönnen, Lesenkönnen etc. ausdrücken (also Dinge,
die scheinbar auch Maschinen "können" [wobei sie es eben gerade nicht
*können*]), sondern daß diese Fähigkeiten universal sind. Will sagen,
einer, der rechnen kann, kann eben auch (prinzipiell) Ovids
Metamorphosen interpretieren, kann nach einem Rezept Linseneintopf
kochen, einen Baum pflanzen, zur Wahl gehen, in der Nase bohren oder
Mails schreiben. Er kann Bedeutungen generieren, erkennen und sogar
negieren. Und er kann all das im Bewußtsein machen, es zu tun; will
sagen, er macht es im Wissen, auf Bedeutungen zu rekurrieren, was ja
immer auch heißt, daß er weiß, sich dabei irren zu können. Aber noch
einmal: am wichtigsten ist dabei die prinzipielle Fähigkeit, das alles
zu vermögen. - Welche Maschine hat ein derartiges Potential?

> meiner meinung nach existiert für diese behauptung weder
> eine grundlage, noch ein logischer zusammenhang.

Vielleicht änderst Du ja noch Deine Meinung ...

> [...]


>
> eine weitere frage, die sich mir da stellt ist, inwiefern
> ich für mich selbst davon ausgehen kann, dass ich
> intelligent bin? ich kann doch auch hier nur behaupten,
> dass ich persönlich intelligent zu sein _scheine_.

Nun überlege mal selbst: kann man unter der Prämisse, es sei gar nicht
sicher, ob man intelligent sei, die *Behauptung* aufstellen, man könne
gar nicht wissen, ob man wirklich intelligent sei? Kann man unter dieser
Prämisse denn überhaupt eine Behauptung aufstellen? Wenn Du diese Frage
bejahst, kann Dir wohl niemand mehr helfen!

> könnte uns ein sinnesorgan (in welcher form auch immer)
> dabei helfen, mit sicherheit festzustellen, dass wir
> intelligent sind und alles nicht nur den anschein hat,
> als ob es so ist? welche art von organ wäre dafür nötig?

Was sollte Dir dazu ein Sinnesorgan nützen? Die Tatsache, daß Du den
Gedanken, der in Deiner Frage steckt, in die Form eines Satzes gebracht
hast, den ein anderer lesen und verstehen kann, verbürgt zureichend die
Sicherheit, daß Du nicht nicht-intelligent bist. Denn ansonsten hättest
Du das Vermögen nicht, diese freilich schon beinahe absurde Frage zu
stellen.

> ich gehe davon aus, dass so ein organ nicht existieren
> kann,

Das siehst Du vollkommen richtig. Obwohl hier natürlich die zahlreich
vorhandenen Hirn-Schwachstrom-Fetischisten (und womöglich auch noch die
stets präsente Macht-die-Primaten-zu-Denkern-Lobby) auf's Heftigste
intervenieren werden.

> aber was wäre dann nötig, um diese aufgabe zu
> erfüllen? eine seele? oder nur ein komplexer automat?

Selbstbewußtsein. Und da Du ein solches offenkundig hast, hast Du alles,
was Du brauchst.

Mit freundlichen Grüßen

Uwe

Christopher Wolf

unread,
Apr 13, 2000, 3:00:00 AM4/13/00
to
Hallo,

> > (z.b. weil wir
> > es mit hilfe unserer augen sehen oder mit unseren ohren
> > hören können
>
> Das ist - gelinde gesprochen - Unsinn.
>
> > - wobei 'sehen' und 'hören' kognitive produkte
> > darstellen).
>
> Sehen- und Hören(können) sind doch keine kognitiven Produkte (was soll
> das überhaupt sein, ein 'kognitives Produkt'?). Es sind vielmehr
> sinnliche Modi der Wahrnehmung.

Das sehe ich anders: Wer etwas sieht oder hört, der gleicht die "Daten",
die er bekommt, mit seinem Bild in von der Welt ab. "Man sieht nur, was
man sehen will" ist ein Sprichwort, das genau in diese Kerbe haut.

Philosophisch hat sich z.B. Maturana mit der Frage befaßt (autopoetische
Systeme) und ist zu dem gleichen Schluß gekommen: Wir nehmen nur war,
wofür wir geschaffen sind und was in unser Weltbild paßt (extrem
überspitzt).

Gruß,
Christopher

Christopher Wolf

unread,
Apr 13, 2000, 3:00:00 AM4/13/00
to
Hallo,

> eine weitere frage, die sich mir da stellt ist, inwiefern
> ich für mich selbst davon ausgehen kann, dass ich
> intelligent bin? ich kann doch auch hier nur behaupten,
> dass ich persönlich intelligent zu sein _scheine_.

Ich würde es mal mit Descartes probieren: Ich denke, also bin ich. D.h.
Du kannst Dir zumindest sicher sein zu denken. Um aber denken zu können,
mußt Du wenigstens rudimentär intelligent sein. Und diese Intelligenz
kannst Du jetzt benutzten, da Du Dich ihrer versichert hast.

Gruß,
Christopher

Uwe Flehmig

unread,
Apr 14, 2000, 3:00:00 AM4/14/00
to
Hallo Christopher,

Christopher Wolf schrieb:

> Hallo,
>
> [...]


> >
> > Sehen- und Hören(können) sind doch keine kognitiven Produkte (was soll
> > das überhaupt sein, ein 'kognitives Produkt'?). Es sind vielmehr
> > sinnliche Modi der Wahrnehmung.
>

> Das sehe ich anders: Wer etwas sieht oder hört, der gleicht die "Daten",
> die er bekommt, mit seinem Bild in von der Welt ab. "Man sieht nur, was
> man sehen will" ist ein Sprichwort, das genau in diese Kerbe haut.

Dein Satz, "wer etwas sieht ..., der gleicht die Daten, die er bekommt ...
ab" scheint mir aber nun gerade recht zu geben. Ich habe ja lediglich
behauptet, *Sehen* und *Hören* seien keine "kognitiven Produkte". Sind sie
denn keine Wahrnehmungsmodi. Wie kannst Du denn etwas "abgleichen", das Du
nicht wahrgenommen hast? Geht den das?
Der Rekurs auf das Sprichwort zieht doch nicht! Denn es ist doch irgendwie
einleuchtend, daß das Wort "sehen" darin nicht den Wahrnehmungsakt meint,
sondern jenen der Verarbeitung des Wahrgenommenen, also den der Reflexion,
oder?
Daß wir davon unabhängig schon in der Wahrnehmung eingeschränkt sind, will
ich ja gar nicht bestreiten. Doch dabei handelt es sich wohl kaum um
willentliche Akte.

> Philosophisch hat sich z.B. Maturana mit der Frage befaßt (autopoetische
> Systeme) und ist zu dem gleichen Schluß gekommen: Wir nehmen nur war,
> wofür wir geschaffen sind und was in unser Weltbild paßt (extrem
> überspitzt).

Ja. Nur halte ich Varela/Maturana prinzipiell für "überspitzt"; und ob das,
was sich dabei philosophisch geriert auch philosophisch ist, mag noch
dahinstehen.

Mit freundlichen Grüßen

Uwe

Gerke Preussner

unread,
Apr 14, 2000, 3:00:00 AM4/14/00
to
>> Du siehst das daran,

genau, du _siehst_ es...und sonst nichts.

> daß sich das Kind in die gängigen Sozialisationsmuster einfügt.
> Am wichtigsten - und augenfälligsten - ist dabei sicher die
> Fähigkeit, sich der Sprache zu bedienen bzw. sprachliche
> Strukturen als solche zu begreifen, wie rudimentät das zu
> Beginn auch immer sein mag.

im rahmen eines funk-LAN projektes wurde an unserem fachbereich
kürzlich ein programm geschrieben, dass es einzelnen, willkürlich
gewählten geräten ermöglicht, sich spontan zu vernetzen.
(selbstverständlich werden vorhandene kommunikationsprotokolle
etc. automatisch ermittelt und ausgewählt)

natürlich ist das nur ein sehr primitives beispiel und keinesfalls
als unterstützendes argument verwendbar. wenn man die komplexitäts-
ebene aber einmal ausser betracht lässt, ist durchaus erkennbar,
dass mein gewähltes beispiel mit dem kind nicht ganz unberechtigt
war.

>> Die Wortgruppe "intelligent/Intelligenz" geht auf lat. "inter-
>> legere" zurück, was man etwa so übersetzen kann: Einsicht
>> erhalten, erkennen, verstehen. Genaugenommen bedeutet es
>> "zwischen [dem und dem] wählen", also abwägen können,
>> Alternativen erfassen usw..

erkennen, wählen und alternativen erfassen können maschinen in
einem stark eingeschränkten kontext schon seit jahrzehnten.
insbesondere auf dem gebiet des erkennens hat es während der
letzten jahre fantastische fortschritte gegeben.

das grösste hindernis dieser entwicklung ist, dass wir die
meisten prozesse in unserem körper (besonders im gehirn)
noch nicht gut genug verstehen.

>> Daß das Verstand voraussetzt, muß einleuchten;

im gegensatz zu 'erkennen' und 'alternativen wählen' ist der
begriff 'verstand' äusserst unscharf. ich kann mir zwar vorstellen,
was du mit 'verstand' meinst, aber diese vorstellung reicht mir
persönlich nicht aus, um _scharfe_ aussagen über diesen begriff zu
machen.

daher leuchtet es mir auch nicht ein, dass o.g. fähigkeiten verstand
voraussetzen (was nicht heissen soll, dass ich nicht verstehe, was
du mir damit sagen wolltest).

>> denn um etwa bei der Aufforderung "geh' auf's Töpfchen" nicht
>> irgendeinen Topf zu besteigen, sondern genau jenen aufzusuchen,
>> der zur Verrichtung der Notdurft dient, hat bereits das Kleinkind
>> hinlänglich Verstand, um differenzieren zu können, was mit dieser
>> Äußerung *gemeint* ist.

eine 'aufforderung' ist kommunikation. damit sinnvolle kommunikation
möglich ist, bedarf es _immer_ eines eindeutigen kontextes, damit der
empfänger einer information die richtige aus mehreren möglichen
bedeutungen auswählen kann.

das kleinkind musste diesen kontext erst erlernen, um zu verstehen,
was mit der aufforderung gemeint ist. angenommen das kleinkind hätte
vorher schon gewusst, was z.b. ein kochtopf ist, dann hätte es
sicherlich diesen aufgesucht, um sein geschäft zu verrichten.

im allgemeinen lernen kinder aber zunächst, nicht in die hose zu
machen, bevor man ihnen von anderen möglichen bedeutungen des wortes
'topf' erzählt.

dies trifft nicht nur auf kleinkinder zu, sondern auch auf erwachsene
menschen. viel zu oft beobachte ich 'fehlverhalten' von personen,
weil sie einen falschen kontext benutzen, um die erhaltene information
auszuwerten. dies wird auch als 'missverständnis' bezeichnet, was u.U.
zu einer stark ausgeprägten lachreaktion bei der informations-quelle
führen kann.

dein gegenbeispiel ist also keines, sondern bestätigt meine vermutung.

>> Will sagen, es besitzt Intelligenz.

gut, dann wollen wir o.g. fähigkeit ab sofort als intelligenz
interpretieren, damit habe ich kein problem. dann müssen wir diese
interpretation aber auch in der folgenden diskussion konsequent
einhalten.

>> Zwar, folgt man Wittgenstein, verhält es sich so, daß wir mehr
>> oder weniger dazu "abgerichtet" werden, solche Sprachspiele zu
>> verstehen; aber als Resultat bleibt doch zu konstatieren, daß wir

>> die Bedeutung solcher Äußerungen eben doch -jeweils kontextabhängig


>> - verstehen können (denn es wäre ja denkbar, daß z.B. bei einem
>> Spiel, tatsächlich mal ein "normales" Töpfchen zu besteigen wäre,
>> was das Kind dann in der Regel auch richtig realisiert). Insofern
>> ist der Mensch disponiert, intelligent zu sein; er kann das, sprich
>> *das* muß er nicht lernen, sondern sozusagen nur die Inhalte
>> intelligenten Verhaltens, die Form dagegen, intelligent sein zu
>> können, ist seine Disposition.

ok, dann wollen wir die vorherige interpretation von intelligenz noch
leicht erweitern:

das kind muss zwar alles mühsam erlernen, aber die fähigkeit dazu
ist ist ihm gegeben und muss nicht erlernt werden. diese fähigkeit,
kontexte zu erkennen und korrekt anzuwenden bestimmt somit seine
intelligenz.

eigentlich reisst mich das noch immer nicht so richtig vom
hocker. bei gegebenem kontext können wir einer maschine beibringen,
selbständig merkmale aus gesichtern zu extrahieren, um diese später
(z.b. anhand eines fotos) ziemlich exakt wiederzuerkennen.

was diese maschine nicht kann, ist den richtigen kontext zu finden.
wenn wir unsere maschine mit etwas mehr *sinnesorganen austatten
dürfte diese aufgabe (von der schwierigkeit her) äquivalent zum
erkennen von gesichtern sein.

>>>>> im rahmen unserer möglichkeiten der wahrnehmung haben wir
>>>>> doch auch hier höchstens die macht, zu behaupten, dass
>>>>> dieses kind intelligent zu sein _scheint_
>> Nein! Wenn es das richtige Verhalten an den Tag legt, sprich,
>> wenn es den Anforderungen des Sprachspieles genügt, dann *ist*
>> es intelligent.

wenn das problem bekannt ist, dann muss eine maschine nicht einmal
'künstliche' intelligenz besitzen, um die erwartete ausgabe zu
liefern. die erwartete ausgabe ist erlernbar (bsp: neuronale netze).
das gleiche passiert, wenn du ein kind bestrafst, weil es mal wieder
in die hose gemacht hat. folglich wird es nach einem weg suchen,
die erwartungen zu erfüllen. das gewünschte ergebnis wird dabei
immer wieder in das kind 'eingegeben' ("du sollst doch nicht in die
hose machen, sondern auf's töpfchen gehen!").

>> Das scheint nun wahrhaftig nicht nur so. Intelligentes Verhalten
>> ist ja genau das, was die obige etymologische Ableitung hergibt.
>> Und im Übrigen: wenn Du nicht bereits unterstelltest, daß es
>> außer Dir selbst noch andere intelligente Wesen gäbe, hättest
>> Du doch wohl kaum diese Mail abgeschickt, oder?

ich unterstelle nicht, ich vermute.
das ist nicht ganz das gleiche, wenngleich das auch immer wieder
gerne verwechselt wird.

insbesondere vermute ich, dass 'scheinbare' intelligenz einer
maschine gemäss unseren betrachtungsmöglichkeiten gleichwertig zur
'wahrhaften' intelligenz des menschen äquivalent ist.

>>>>> (z.b. weil wir es mit hilfe unserer augen sehen oder mit
>>>>> unseren ohren hören können
>> Das ist - gelinde gesprochen - Unsinn.

das kannst du dann hoffentlich auch begründen.

>>>>> - wobei 'sehen' und 'hören' kognitive produkt darstellen).


>> Sehen- und Hören(können) sind doch keine kognitiven Produkte
>> (was soll das überhaupt sein, ein 'kognitives Produkt'?). Es
>> sind vielmehr sinnliche Modi der Wahrnehmung.

ich habe inzwischen eine ziemlich genaue darstellung davon, was
kognitive produkte sind. allerdings habe ich noch nie von
'sinnlichen modi der wahrnehmung' gehört. vielleicht meinen wir
ja das gleiche?

>>>>> bedeutend schwieriger wird das ganze dadurch, dass wir
>>>>> bis jetzt keine operationale definition von intelligenz
>>>>> haben. was soll also die unterscheidung zwischen
>>>>> intelligenz und scheinbarer intelligenz, wenn wir nicht
>>>>> mal genau sagen können, worüber wir überhaupt sprechen?
>> 1. gibt es sehr wohl eine Vorstellung davon, was Intelligenz
>> sei.

es gibt nicht _eine_, sondern _viele_ vorstellungen, abhängig
von der interpretationsweise einer person.

jemand kann intelligent sein, wenn er viel weiss, oder wenn er
schnell denkt, oder wenn er in einer bestimmten situation
angemessen handelt usw.

es gibt lediglich eine anzahl von aspekten, die bei der
bewertung von intelligenz eine rolle spielen (kreativität,
intuition, schlussfolgerungen, wissen etc.)

>> 2. dreht sich der Streit m.E. (in Hinblick auf Searle) kaum
>> um "wirkliche" vs. "scheinbare" Intelligenz; sondern vielmehr

>> geht es um [...]

deshalb sagte ich auch "aus Searle's gedankenexperiment [..]
entstand die frage [..]" (die übrigens nur eine aus einer ganzen
fragen-lawine war [und ist])

>> Das Hauptproblem dabei ist meiner bescheidenen Meinung nach,
>> daß die KI'ler wegen ihrer defizienten Vorstellung davon, was
>> Intelligenz (und "Verstehen" bzw. "Bewußtsein) sei, eine
>> vollkommen unsinnige Debatte vom Zaume reißen. Denn tatsächlich
>> *verstehen* sämtliche bis heute gebauten Maschinen natürlich
>> überhaupt nichts.

da ich mich nur interessenhalber mit dieser problematik befasse,
überlasse ich die kommentierung dieser aussage den aktiven KI'lern.

>> Sondern sie arbeiten Algorithmen ab. Setzt man ihnen ein
>> Problem vor, das programmtechnisch nicht vorgesehen ist, ist
>> es mit dem Verstehen schnell vorbei.

du verwechselst das jetzt mit konventionellen programmiermethoden,
wo probleme formal erfasst und per algorithmus gezielt berechnet
werden (sofern diese probleme berechenbar sind).

KI geht einen anderen weg.

mit einem starren algorithmus wäre z.b. mustererkennung nicht
möglich, da man nicht alle möglichen fälle erfassen und/oder
vorausberechnen kann.

>> Der Schluß, ein Mensch ist intelligent, wenn er rechnen kann
>> ---> also ist eine Maschine intelligent, weil sie auch rechnen
>> kann, ist unsinnig;

selbstverständlich ist dieser schluss unsinnig.
allerdings bist du auch der erste, von dem ich diese
schlussfolgerung höre.

>> und zwar, weil die Fähigkeit, intelligent zu sein (also
>> *verstehen* zu können), überhaupt nichts mit Rechnenkönnen zu
>> tun hat.

das behauptet auch niemand.

ich empfehle dir, wenigstens mal die einleitung eines KI buches
zu lesen. dort findest du i.d.R. eine auflistung davon, was KI
bedeutet, was man damit erreichen kann und was (derzeit) nicht
im bereich des machbaren liegt.

>> Etwas verstehen können bedeutet doch nicht, rechnen, schreiben,
>> lesen, kalkulieren etc. zu beherrschen (dies sind alles
>> Anwendungen der Fähigkeit, verstehen zu können); sondern vielmehr,
>> dazu in der Lage zu sein, ein sinnlich oder symbolisch Gegebenes
>> mit Bedeutungshaftigkeit versehen zu können. Und der Witz dabei
>> ist, daß dieses sinnlich oder symbolisch Gegebene je nach Lage
>> der Dinge und kontextspezifisch ganz heterogene Bedeutungen
>> annehmen kann.

was genau verstehst du denn unter bedeutungen?

>> Verstehen wäre also im weitesten Sinne die Fähigkeit, an sich
>> bedeutungsoffene Data in spezifische Bedeutungen zu
>> transformieren - *und* (und das ist besonders wichtig) diesen
>> Prozess *bewußt* zu erleben, also im Wissen stehend, daß bedeutet
>> wird, zu bedeuten.

drei mal 'bedeuten' in einem satz? das führt zur verwirrungen :)

was verstehst du unter 'bewusst im wissen stehend' und inwiefern
kann eine maschine diesen zustand nicht erfassen?

>> Meinst Du im Ernst, daß ein Computer "weiß", was es bedeutet,
>> wenn er am Ende einer statistischen Auswertung zu dem Ergebnis
>> kommt, daß es im Konzern X viertausendzweihundertfünfundsechzig
>> Personalstellen zu viel gibt? Meinst Du, er weiß, *warum* er
>> diese statistische Auswertung errechnet? Und glaubst Du wirklich,
>> daß er weiß, daß er gerade diese Auswertung erstellt?

es gibt eine endlose liste von aktivitäten die dein körper ohne
dein 'bewusstes wissen' vollführt.

>> Womit, oder wodurch, *weiß* er das? Hat er etwa
>> Selbstbewußtsein? Ein Ich? Und *wie* ist das, dieses Computer-
>> Ich?

diese fragen kann ich dir nicht beantworten, da ich niemals ein
computer gewesen bin. für mich ist 'bewusstsein' ein relativer
begriff. ich möchte behaupten, dass wir bezüglich unserer
komplexität nicht mehr 'bewusstsein' besitzen, als eine maschine.

>> So wie mein Ich, daß sich dessen vollkommen bewußt ist, gerade
>> über Verstehen zu reflektieren? Hast Du schon mal einen Computer
>> gesehen, der über das Verstehen reflektiert? Der sich im
>> Reflexionsakt dessen absolut sicher ist, daß er es ist, der da

>> über's Verstehen reflektiert? [...]

ich hoffe sehr, dass ich in meinem leben eine solche maschine
noch erleben werde.

>> Entscheidend ist, daß die Maschine nicht entscheiden kann
>> (jedenfalls nicht ohne Zusatzinfos),

ohne zusatzinfos kannst auch DU nichts entscheiden, denn dies
ist ja gerade der kontext, von dem wir die ganze zeit sprechen.

>> Im Gegensatz dazu ist die Maschine ein Klumpen tumber Materie,

ich will dir ja nicht deine heile welt kapputtmachen, aber
dummerweise bestehst du wahrscheinlich aus genau der gleichen
materie, nur etwas komplexer und anders angeordnet.

>> wer da von Intelligenz oder Verstehen faselt, hat zu viel
>> "Star T(D)reck" gesehen.

wie ich schon sagte, du musst unbedingt mal eine einführung
zur KI lesen, damit du verstehst, was diese richtung der
wissenschaft versucht, was sie bereits kann und was sie nicht
kann.

>>>>> jedoch niemals wahrhaft intelligent sein wird, kann ich unter
>>>>> diesen umständen überhaupt nicht nachvollziehen.
>> Jetzt hoffentlich schon.

nein, leider nicht.

du hast zwar viel geantwortet (wofür ich dir dankbar bin),
aber es war keinerlei information enthalten, die mich eines
besseren belehren kann.

>> Es sei noch angemerkt, daß "intelligent sein",
>> "verstehen können" etc., als reine Formen, als menschliche
>> Dispositionen, als Leistungen eines wie auch immer gearteten
>> Bewußtseins

klassischer fall von Dualismus

>> niemals nur *bestimmte* Ausprägungen wie Rechnenkönnen,
>> Lesenkönnen etc. ausdrücken (also Dinge, die scheinbar auch
>> Maschinen "können" [wobei sie es eben gerade nicht
>> *können*]), sondern daß diese Fähigkeiten universal sind.

>> Will sagen, einer, der rechnen kann, kann eben auch [...]

siehe oben

>> Aber noch einmal: am wichtigsten ist dabei die prinzipielle
>> Fähigkeit, das alles zu vermögen. - Welche Maschine hat ein
>> derartiges Potential?

das gehirn besteht aus ca. 10 milliarden nervenzellen, die
auf komplizierteste art und weise mit einander verschalten
sind.

dass eine maschine, wie du sie beschreibst in der praxis
vorerst nicht realisierbar ist, dürfte klar sein.

ich möchte aber noch erwähnen, dass sich bereits mit einer
zweistelligen anzahl künstlicher (in ihren fähigkeiten
verstümmelten) neuronen bereits äusserst komplexe lern-
und steuerungsprozesse durchführen lassen.

>>>>> meiner meinung nach existiert für diese behauptung weder
>>>>> eine grundlage, noch ein logischer zusammenhang.
>> Vielleicht änderst Du ja noch Deine Meinung ...

ja vielleicht.
aber nicht heute nacht :)

>> Nun überlege mal selbst: kann man unter der Prämisse, es sei
>> gar nicht sicher, ob man intelligent sei, die *Behauptung*
>> aufstellen, man könne gar nicht wissen, ob man wirklich
>> intelligent sei? Kann man unter dieser Prämisse denn
>> überhaupt eine Behauptung aufstellen? Wenn Du diese Frage
>> bejahst, kann Dir wohl niemand mehr helfen!

selbst wenn ich recht hätte, würde das für mich prinzipiell
nichts ändern. von daher muss mir auch niemand helfen.

>> Was sollte Dir dazu ein Sinnesorgan nützen? Die Tatsache, daß
>> Du den Gedanken, der in Deiner Frage steckt, in die Form eines
>> Satzes gebracht hast, den ein anderer lesen und verstehen kann,
>> verbürgt zureichend die Sicherheit, daß Du nicht nicht-
>> intelligent bist. Denn ansonsten hättest Du das Vermögen nicht,
>> diese freilich schon beinahe absurde Frage zu stellen.

ich weiss nicht, ob ich gedanklich auf dem richtigen weg bin.
ich weiss aber, dass ich vor langer zeit die gleiche einstellung
hatte wie du (hauptsächlich begründet durch fehlendes wissen
über mich, meine umwelt und alles andere) und irgendwann in einer
sackgasse gelandet bin.

jemand, der sich mit diesen problemen nicht auseinandersetzt,
wird niemals einen grund haben, bestehende erfahrungen
anzuzweifeln. in der tat wünsche ich mir manchmal, ich hätte
niemals damit angefangen, meine zeit mit gedankenexperimenten
zu verbringen. andererseits ist wissen und erfahrung immer stark
begrenzt. kein mensch kann alle bücher lesen, oder alle
erfahrungen machen.

aus dieser gesammelten datenflut wird ein abschluss gebildet,
der es dir ermöglichen soll, in zukunft die richtigen
entscheidungen zu treffen. solange man diesen gedankenraum in
ruhe lässt, ist alles in ordnung.

durch scheinbar absurde fragen kannst du diesen gedankenraum
aber immens vergrössern, was dir in biologischer hinsicht
wiederum einen vorteil verschaffen kann (natürlich auch
evtl. nachteile :)

>> Selbstbewußtsein. Und da Du ein solches offenkundig hast,
>> hast Du alles, was Du brauchst.

ich wünschte, es wäre so einfach :)


mfg

j3rky

Volkmar Kobelt

unread,
Apr 14, 2000, 3:00:00 AM4/14/00
to

Gerke Preussner <gerke.p...@gmx.net> schrieb im
Newsbeitrag: 8d4i84$75i4l$1...@fu-berlin.de...

[Bemerkungen, was denn der Unterschied zwischen Sein und
Scheinen, am Beispiel der Intelligenz, wohl in philosophischen,
Diskussionen, sein soll, die mir so zusagen, daß ich nicht weiß,
was ich zum Zitieren auswählen soll. Vielleicht das Ende:]

> könnte uns ein sinnesorgan (in welcher form auch immer)
> dabei helfen, mit sicherheit festzustellen, dass wir
> intelligent sind und alles nicht nur den anschein hat,
> als ob es so ist? welche art von organ wäre dafür nötig?
>

> ich gehe davon aus, dass so ein organ nicht existieren

> kann, aber was wäre dann nötig, um diese aufgabe zu


> erfüllen? eine seele? oder nur ein komplexer automat?
>

> vielleicht kann mir ja mal jemand auf die sprünge helfen...

Ich sicher nicht. Wenn ich sage, etwas scheine mir so,
dann habe ich Zweifel an einer Vorstellung, die man (etwa
in praktischem Zusammenhang) in dem einen oder anderen
Sinn vielleicht ausräumen kann.

Hier scheint aber etwas Grundsätzlicheres gemeint zu sein:
den Menschen erscheint etwas in einer Weise, wie es nicht
wirklich ist. Und ich bin der Übermensch, der das richtig
einordnet.

Das erinnert an das "Ding an sich" hinter den uns
erscheinenden Dingen, das wir nicht erkennen
können. Aber benennen können wir es und abgrenzen
von den Dingen, die wir erkennen können??

Als kurioses Beispiel für solche Eigentlichkeits-Aufdeckerei
kann ich noch die Hohlwelttheorie anbieten, über die ich in
meiner Jugend ein Buch gehabt habe: Danach ist die Erd-
obrfläche nicht konvex, sondern konkav gekrümmt. Die Erde
ist also eine Hohlkugel, in deren Zentrum Sonne, Mond und
Sterne sind. Nun spricht für die konvexe Krümmung ja, daß
man von etwas entfernteren Schiffen auf dem Meer nur die
Segel oder Aufbauten sieht (oder z.B. am Bodensee obere
Hälften von Kirchtürmen an anderen Ufern.) Das wird in der
Hohlwelttheorie durch eine bestimmte Krümmung der
Lichtstrahlen erklärt. Man kann also (bis zu einem gewissen
Grade?) die Erscheinungen auch auf diese Art erklären und
darstellen. Mal angenommen, man könne das vollständig
(soweit man sieht :-) ). Was gäbe es denn dann für einen
Maßstab für eine richtige Beschreibung oder gar für eine
Beschreibung der eigentlichen oder wirklichen Verhältnisse?
Woher kennt man die? Der Vorteil der geläufigen
Darstellung ist ihre Einfachheit.

Gruß, Volkmar


noc...@my-deja.com

unread,
Apr 14, 2000, 3:00:00 AM4/14/00
to
In article <8d5jue$75lnq$1...@fu-berlin.de>,
"Gerke Preussner" <gerke.p...@gmx.net> wrote:

> insbesondere vermute ich, dass 'scheinbare' intelligenz einer
> maschine gemäss unseren betrachtungsmöglichkeiten gleichwertig zur
> 'wahrhaften' intelligenz des menschen äquivalent ist.

Ich frage mich, wie man gesunden Verstandes anderes vermuten kann (wenn
man mal Religion und Metaphysik beiseite läßt). Einer Maschine, die
menschenähnlichem Verhalten auch nach eingehender Prüfung mächtig zu
sein scheint (sollte es so etwas einmal geben) "Bewußtsein" absprechen
zu wollen, klingt für mich nicht unähnlich des noch gar nicht so alten
Gedanken, dies auch bei Menschen "anderer" Hautfarbe zu tun.

> diese fragen kann ich dir nicht beantworten, da ich niemals ein
> computer gewesen bin. für mich ist 'bewusstsein' ein relativer
> begriff. ich möchte behaupten, dass wir bezüglich unserer
> komplexität nicht mehr 'bewusstsein' besitzen, als eine maschine.

Das würde ich vorsichtiger formulieren. Es gibt neben der Komplexität
(schwer zu definieren in diesem Kontext) eventuell noch eine
qualitative Stufe, die für das, was wir "Bewußtsein" nennen, notwendig
ist: Ein internes Modell (mehr oder weniger genau und abstrakt) der
eigenen kognitiven Prozesse zu besitzen. Die Fähigkeit, darüber
nachzudenken, _daß_ man denkt quasi.

Natürlich gibt es keinen Grund, warum eine Maschine so etwas
prinzipiell nicht auch können sollte. Nur gehört wohl etwas mehr
Arbeitsaufwand dazu, als ihr einfach nur ein paar Tricks beizubringen.
Vielleicht ist eine gewisse Schwelle/Komplexitätsstufe (nicht
hinreichende) Vorraussetzung dafür.

> jemand, der sich mit diesen problemen nicht auseinandersetzt,
> wird niemals einen grund haben, bestehende erfahrungen
> anzuzweifeln.

Das ist, fürchte ich, ein reales Problem in der Philosophie. Die
ganzen "bekannten alten Namen" in der Philosophie konnten sich mit
diesem Problem nicht auseinandersetzen, weil es sich ihnen nicht
gestellt hat: Sie wußten einfach zu wenig über die "Welt" (ich meine
die Erkenntnisse aus den Naturwissenschaften inkl. Informatik, die erst
uns zur Verfügung stehen).
Ich könnte mir durchaus vorstellen (Blasphemie! Hehe) daß einige
Zeitgenossen, die die "Alten" verinnerlicht haben, sich aus diesem
Grunde schwer tun damit (Kognitive Dissonanz... :-)

Arne Gabriel


Sent via Deja.com http://www.deja.com/
Before you buy.

noc...@my-deja.com

unread,
Apr 14, 2000, 3:00:00 AM4/14/00
to
In article <38F62D39...@bluewin.de>,
Uwe Flehmig <uwe.f...@bluewin.de> wrote:

> 1. gibt es sehr wohl eine Vorstellung davon, was Intelligenz sei.
> 2. dreht sich der Streit m.E. (in Hinblick auf Searle) kaum um
> "wirkliche" vs. "scheinbare" Intelligenz; sondern vielmehr geht es um
> den Ggs. von menschlicher und künstlicher Intelligenz, oder, noch
> genauer, darum, ob ein solcher Ggs. oder Unterschied überhaupt
> besteht.
> Das Hauptproblem dabei ist meiner bescheidenen Meinung nach, daß die
> KI'ler wegen ihrer defizienten Vorstellung davon, was Intelligenz
> (und "Verstehen" bzw. "Bewußtsein) sei, eine vollkommen unsinnige
> Debatte vom Zaume reißen.

Sei mir nicht böse, aber meiner bescheidenen Meinung nach liegt
diese "unsinnige Debatte" zu nicht kleinen Teilen daran, daß viele
Philosophen eine defiziente Vorstellung davon haben, was KI ist, und
was sie erreichen will.


> Denn tatsächlich *verstehen* sämtliche bis heute gebauten
> Maschinen natürlich überhaupt nichts.

[Rest des Gefühlsausbruchs gesnippt]

Aha. Das Argument höre ich immer wieder. Seufz.

Überraschung: Die KI behauptet das auch nicht. Ich kenne zwar ein paar
Beispiele sensationshungriger Journalisten (und auch Informatiker die
anscheinend dringend Geld brauchten), die entsprechendes behauptet
haben - da wird dann gerne davon gesprochen, daß das Programm X "weiß"
was Umstand Y bedeutet. Aber die sollte man nicht zu ernst nehmen. Die
Philosophie will auch nicht an einem gemessen werden, der mal vor ein
paar hundert Jahren die Existenz Gottes durch Zirkelschluß "bewiesen"
hat, oder?

Die KI versucht (unter anderem) eine mit menschlicher vergleichbare
Intelligenz zu entwicklen, die auf einem Turing Maschine Äquivalent
läuft. Sie behauptet keinesfalls, damit schon Erfolg gehabt zu haben.
Wenn man durch wiederholtes Anführen der Beobachtung, daß Erfolg bisher
ausblieb, "beweisen" will, daß es prinzipiell unmöglich sei (ich will
es dir mal nicht unterstellen), würde man sich doch eher lächerlich
machen. Findest du nicht?

Du behauptest, "Verstehen" hängt insbesondere davon ab, Informationen
in Kontexte zu setzen. OK, sehe ich auch so. Aber gibt es einen Grund,
warum eine entsprechend programmierte Maschine das nicht können sollte?

Mir scheint es so, daß du hier deinem Ärger gegen den KI-Hype der
letzten Jahrzente Luft machen willst (nicht böse sein, OK?). Nun,
bittesehr, den halte ich auch für gräßlich und der Sache nicht dienlich.
Genauso wie einige führende Vertreter auf dem Gebiet (Hofstadter und
sein FARG Team). Mir scheint es allerdings auch so, daß du dich mit dem
gegenwärtigen Stand der KI nicht sonderlich gut auskennst (vielleicht
irre ich mich da auch!). Ein Program wie z.B. 'Copycat' hat zwar lange
nicht das, was man unter menschlicher Verständnisfähigkeit verstehen
würde, aber es zeigt in seiner microdomain doch recht erstaunliche
Fähigkeiten, die zumindest Ansatzweise in die "Richtung gehen". Findest
du nicht?

(Eine Beschreibung von Copycat und ähnlichen Ansätzen findet du in dem
IMHO recht lesenswerten Buch: "Fluid Concepts & Creative Analogies :
Computer Models of the Fundamental Mechanisms of Thought" by Douglas R.
Hofstadter)


[...]


> Aber noch
> einmal: am wichtigsten ist dabei die prinzipielle Fähigkeit, das alles
> zu vermögen. - Welche Maschine hat ein derartiges Potential?

Jeder Computer mit hinreichend hoher "Leistung" hat IMHO dieses
Potential. Es zu verwirklichen, das ist eine andere Sache.

Uwe Flehmig

unread,
Apr 15, 2000, 3:00:00 AM4/15/00
to
Hallo Gerke,

Gerke Preussner schrieb:

> >> Du siehst das daran,


>
> genau, du _siehst_ es...und sonst nichts.

... schon mal was von sprachlicher Metaphorik gehört? Und nur so nebenbei:
das ist ja gerade das Spezifikum menschlicher Intelligenz, daß sie an
diesem Punkte differenzieren und bedeuten kann. Wenn das Maschinen nicht
können, haben die Apologeten der KI-Thesen ein Problem, nicht aber der
philosophisch Argumentierende.

> > daß sich das Kind in die gängigen Sozialisationsmuster einfügt.
> > Am wichtigsten - und augenfälligsten - ist dabei sicher die
> > Fähigkeit, sich der Sprache zu bedienen bzw. sprachliche
> > Strukturen als solche zu begreifen, wie rudimentät das zu
> > Beginn auch immer sein mag.
>
> im rahmen eines funk-LAN projektes wurde an unserem fachbereich
> kürzlich ein programm geschrieben, dass es einzelnen, willkürlich
> gewählten geräten ermöglicht, sich spontan zu vernetzen.
> (selbstverständlich werden vorhandene kommunikationsprotokolle
> etc. automatisch ermittelt und ausgewählt)

Und dann? Was hat denn das mit dem Problem der Intelligenz zu tun?

> natürlich ist das nur ein sehr primitives beispiel und keinesfalls
> als unterstützendes argument verwendbar.

Warum bringst Du es dann?

> wenn man die komplexitäts-
> ebene aber einmal ausser betracht lässt, ist durchaus erkennbar,
> dass mein gewähltes beispiel mit dem kind nicht ganz unberechtigt
> war.

Ich kann das nicht erkennen. - Und das ist keine Polemik, sondern wirklich
so gemeint. Wo ist der Nexus?

> erkennen, wählen und alternativen erfassen können maschinen in
> einem stark eingeschränkten kontext schon seit jahrzehnten.

So? Maschinen können erkennen? Wäre interessant, mal so eine Erkenntnis
vorgeführt zu bekommen. Besonders vor dem Hintergrund, daß Erkenntnis im
philosophischen Verständnis wohl kaum ohne Bewußtsein zu erreichen ist.
Mich würde also interessieren, wo eine Maschine zu betrachten ist, die
Bewußtsein besitzt.
Mir ist natürlich klar, daß Erkenntnis etc. im Sinne der KI mit dem, was
darunter in der Philosophie figuriert, nicht sehr viel zu schaffen hat.
Doch so ist das eben: wenn ich einfach sage, das und das sei Erkenntnis,
so fällt es mir am Ende auch nicht schwer, noch dem letzten Fliegenschiß
an der Fensterscheibe ein solches Vermögen zu unterstellen. - Und ganz
nebenbei: solange die KI nicht in der Lage ist vorzuführen, daß eine
vorgeblich "erkennende" Maschine genau das kann, was man beim Menschen
unter Erkennen versteht, hat sie sich ganz einfach an diesem Maßstab
auszurichten. Tut sie das nicht, ist sie nicht weit vom Nonsense weg, so,
wie jener Idiot, der meint, Pferde könnten rechnen, nur weil eines im
Zirkus fünfmal trampelt, wenn ihm zugerufen wird "wieviel ist zwei plus
drei?".

> insbesondere auf dem gebiet des erkennens hat es während der
> letzten jahre fantastische fortschritte gegeben.

Im Ernst? Hast Du zu diesem "Gebiet" schon mal was von Kant gelesen? Oder
von Brentano, oder von Husserl? Die sind alle lange tot - aber wie nehmen
sich Deine "phantastischen Fortschritte" gegen deren Bemühungen um's
Verständnis des Verstehens aus?

> >> Daß das Verstand voraussetzt, muß einleuchten;
>
> im gegensatz zu 'erkennen' und 'alternativen wählen' ist der
> begriff 'verstand' äusserst unscharf.

Wie kommst Du darauf? Wie wär's mit einem kleinen Ausflug in die KdrV?
Dort wirst Du sehen, wie's um's äußerst Unscharfe tatsächlich steht. Diese
Gruppe hier heißt noch immer sci.phil... - Es kann ja wohl nicht sein, daß
wir hier daherreden wie Max und Emil in der kleinen Kneipe in unserer
Strasse, oder? - Und dabei will ich keineswegs sagen, daß ich etwa Kants
Begriff des Verstandes absolut setzen wollte. Aber ganz so, wie Du die
Sache hier darstellst, ist es ja nun tatsächlich nicht.

> ich kann mir zwar vorstellen,
> was du mit 'verstand' meinst, aber diese vorstellung reicht mir
> persönlich nicht aus, um _scharfe_ aussagen über diesen begriff zu
> machen.

Hier geht es ja auch nicht um persönliche Ansichten, sondern um den Tausch
von Argumenten. Und der kann nun mal per se nicht "persönlich" (im Sinne
von privat) sein (über zweites findest Du einiges in den PU von
Wittgenstein, über erstes kannst Du Dich bei Toulmin schlau machen).

> daher leuchtet es mir auch nicht ein, dass o.g. fähigkeiten verstand
> voraussetzen (was nicht heissen soll, dass ich nicht verstehe, was
> du mir damit sagen wolltest).

Das ist mir zu kryptisch.

> >> denn um etwa bei der Aufforderung "geh' auf's Töpfchen" nicht
> >> irgendeinen Topf zu besteigen, sondern genau jenen aufzusuchen,
> >> der zur Verrichtung der Notdurft dient, hat bereits das Kleinkind
> >> hinlänglich Verstand, um differenzieren zu können, was mit dieser
> >> Äußerung *gemeint* ist.
>
> eine 'aufforderung' ist kommunikation. damit sinnvolle kommunikation
> möglich ist, bedarf es _immer_ eines eindeutigen kontextes,

Das ist ein Mythos, der sich einer sehr eingeschränkten Sichtweise von den
Problemen der Kommunikation verdankt. Und überhaupt: was soll denn das
sein, ein "eindeutiger Kontext". Als ob Kontexte selbst nicht oft genug
schon wieder bedeutet werden müßten. - Die Welt ist kein Motherboard, auf
dem sich irgendwelche Prozessoren und sonstiger Firlefanz befinden, die
einen Austausch über Ja/Nein veranstalten.

> damit der
> empfänger einer information die richtige aus mehreren möglichen
> bedeutungen auswählen kann.

Tüt Tüt. Willkommen im Morsezeitalter.

> das kleinkind musste diesen kontext erst erlernen, um zu verstehen,
> was mit der aufforderung gemeint ist.

Nein. Das Kleinkind sieht sich mit Sprachspielen konfrontiert, deren
Bedeutung sich ihm über den Gebrauch erschließt. Einfach dadurch, daß es
"mitspielt".

> angenommen das kleinkind hätte
> vorher schon gewusst, was z.b. ein kochtopf ist, dann hätte es
> sicherlich diesen aufgesucht, um sein geschäft zu verrichten.

Eben nicht! Deine Vorstellung davon, wie Kommunikation (bzw. Sprache)
funktioniert, fußt letztlich auf der augustinischen Bedeutungstheorie, die
Wittgenstein in den PU ausführlich kritisiert hat. - Exakt das ist ja auch
einer der Gründe, warum die Argumente für maschinelle Intelligenz so
schwer unterbelichtet sind. Ihre Defizienz gründet letztlich in einer
Vulgarisierung all dessen, worum sich zweieinhalbtausendjährige
philosophische Argumentation (mit wechselndem Erfolg und manchmal auch
vergeblich) bemüht hat. Aber die Probleme werden ja nicht dadurch
beseitigt, daß man nun lustig trivialisiert, oder?

> im allgemeinen lernen kinder aber zunächst, nicht in die hose zu
> machen, bevor man ihnen von anderen möglichen bedeutungen des wortes
> 'topf' erzählt.

Nochmals: tatsächlich erzählt den Kindern niemand irgendeinen Stuß von
möglichen Bedeutungen des Wortes Topf. Wenn Du das im Ernst glaubst oder
es nicht besser weißt, wäre es sinnvoll, daß Du Deine Nase mal in ein paar
diesbezüglich relevante (sprach-)philosophische und/oder linguistische
Abhandlungen steckst. - Oder darüber schweigst, wie Wittgenstein im
Tractatus anrät (obwohl der Zusammenhang dort ein wenig anders gelagert
ist, wie ich gerne eingestehe).

> [...]


>
> gut, dann wollen wir o.g. fähigkeit ab sofort als intelligenz
> interpretieren, damit habe ich kein problem. dann müssen wir diese
> interpretation aber auch in der folgenden diskussion konsequent
> einhalten.
>
> >> Zwar, folgt man Wittgenstein, verhält es sich so, daß wir mehr
> >> oder weniger dazu "abgerichtet" werden, solche Sprachspiele zu
> >> verstehen; aber als Resultat bleibt doch zu konstatieren, daß wir
> >> die Bedeutung solcher Äußerungen eben doch -jeweils kontextabhängig
> >> - verstehen können (denn es wäre ja denkbar, daß z.B. bei einem
> >> Spiel, tatsächlich mal ein "normales" Töpfchen zu besteigen wäre,
> >> was das Kind dann in der Regel auch richtig realisiert). Insofern
> >> ist der Mensch disponiert, intelligent zu sein; er kann das, sprich
> >> *das* muß er nicht lernen, sondern sozusagen nur die Inhalte
> >> intelligenten Verhaltens, die Form dagegen, intelligent sein zu
> >> können, ist seine Disposition.
>
> ok, dann wollen wir die vorherige interpretation von intelligenz noch
> leicht erweitern:
>
> das kind muss zwar alles mühsam erlernen, aber die fähigkeit dazu
> ist ist ihm gegeben und muss nicht erlernt werden. diese fähigkeit,
> kontexte zu erkennen und korrekt anzuwenden bestimmt somit seine
> intelligenz.
>
> eigentlich reisst mich das noch immer nicht so richtig vom
> hocker.

Muß es das? Diese Dinge sind ja seit langem bekannt (jedenfalls bei
Philosophen u.a. Humanwissenschaftlern).

> bei gegebenem kontext können wir einer maschine beibringen,
> selbständig merkmale aus gesichtern zu extrahieren, um diese später
> (z.b. anhand eines fotos) ziemlich exakt wiederzuerkennen.

Ja und? Was soll dieses Argument? Wenn ich dann, nach der maschinellen
"Wiedererkennung" die Maschine dazu befragen könnte, was sie vom dem
rekonstruierten Gesicht (also etwa, ob sie es für schön oder häßlich oder
interessant etc.) hält, ja, auch mich mit ihr darüber streiten könnte,
warum ich es für schön, sie es aber für häßlich hält: sprich, wenn wir
also Argumente austauschen könnten usw., ja, dann würde ich meinen, sie
wäre intelligent, und zwar, weil sie dann den Anforderungen an menschliche
Intelligenz genügte. Aber tut sie das? Nun, ich denke, keine Maschine kann
das. Und deshalb müssen die KI'ler kontinuierlich das Niveau senken, um
noch irgend behaupten zu können, Maschinen seien intelligent. Ein bißchen
ist das wie beim ontologischen Gottesbeweis: nur weil ich den Begriff von
denkenden, intelligenten Maschinen bilden kann, muß es doch so was auch
geben. Aber vielleicht ist ja alles noch viel trivialer: denn schließlich
kann man das ja fast täglich im Fernsehen sehen (mir begegnen auch
manchmal Leute, die sagen "ja aber das doch in der BILD-Zeitung
gestanden"; doch ist das für mich noch lange kein Grund, dann den
verzapften Unfug auch schon für bare Münze zu nehmen).
Und nun noch eine ganz beiläufige Frage: früher wurden Plattenaufnahmen
mit Tonbandgeräten realisiert. Diese Geräte konnten Gesang, Musik etc.
"ziemlich exakt" wiedergeben. Würdest Du deshalb sagen, daß sie
intelligent gewesen seien?

> was diese maschine nicht kann, ist den richtigen kontext zu finden.
> wenn wir unsere maschine mit etwas mehr *sinnesorganen austatten
> dürfte diese aufgabe (von der schwierigkeit her) äquivalent zum
> erkennen von gesichtern sein.

So? Wie willst Du denn das machen? Vielleicht ein Ohr oder ein Auge
aufkleben. Mit UHU, oder was? Was soll das bedeuten, "eine Maschine mit
Sinnesorganen auszustatten"? Und wozu sollte das gut sein? Zum Erkennen?
Als ob es beim Erkennen mit der Existenz von Sinnesorganen getan wäre. Ein
Lurch hat auch Sinnesorgane, aber Erkennen kann er deshalb noch lange
nicht! Sind wir jetzt vielleicht wieder bei Mary Shelley angelangt, oder
was?

> >>>>> im rahmen unserer möglichkeiten der wahrnehmung haben wir
> >>>>> doch auch hier höchstens die macht, zu behaupten, dass
> >>>>> dieses kind intelligent zu sein _scheint_
> >> Nein! Wenn es das richtige Verhalten an den Tag legt, sprich,
> >> wenn es den Anforderungen des Sprachspieles genügt, dann *ist*
> >> es intelligent.
>
> wenn das problem bekannt ist, dann muss eine maschine nicht einmal
> 'künstliche' intelligenz besitzen, um die erwartete ausgabe zu
> liefern. die erwartete ausgabe ist erlernbar (bsp: neuronale netze).

Als ob ich auch nur ein einziges Wort über "erwartete Ausgaben" verloren
hätte. Also bei mir zuhause macht der Bildschirm oder der Drucker
Ausgaben. Ich schrieb: "Wenn es (das Kind) das richtige Verhalten an den


Tag legt, sprich,
wenn es den Anforderungen des Sprachspieles genügt, dann *ist* es

intelligent. - Was hat denn das mit "Ausgaben" zu tun? Und wo ist der
Nexus zum angemessenen Verhalten im Sprachspiel?

> das gleiche passiert, wenn du ein kind bestrafst, weil es mal wieder
> in die hose gemacht hat. folglich wird es nach einem weg suchen,
> die erwartungen zu erfüllen. das gewünschte ergebnis wird dabei
> immer wieder in das kind 'eingegeben' ("du sollst doch nicht in die
> hose machen, sondern auf's töpfchen gehen!").

Zu diesem Fehler siehe oben. So funktionieren Sprachspiele nicht, so
funktionieren höchstens Maschinen (weshalb sie eben auch nicht intelligent
genannt werden können).

> >> Das scheint nun wahrhaftig nicht nur so. Intelligentes Verhalten
> >> ist ja genau das, was die obige etymologische Ableitung hergibt.
> >> Und im Übrigen: wenn Du nicht bereits unterstelltest, daß es
> >> außer Dir selbst noch andere intelligente Wesen gäbe, hättest
> >> Du doch wohl kaum diese Mail abgeschickt, oder?
>
> ich unterstelle nicht, ich vermute.
> das ist nicht ganz das gleiche, wenngleich das auch immer wieder
> gerne verwechselt wird.

Da der Streit hier auch um Wörter geht, wollen wir schon mal genauer
hinschauen: also welche Vermutung wäre denn ohne eine Unterstellung
möglich, hm?

> insbesondere vermute ich, dass 'scheinbare' intelligenz einer
> maschine gemäss unseren betrachtungsmöglichkeiten gleichwertig zur
> 'wahrhaften' intelligenz des menschen äquivalent ist.

Dieser Satz wird auch dadurch nicht sinnvoller, daß darin quasi
bedeutungsgleiche Wörter gedoppelt werden.

> >>>>> (z.b. weil wir es mit hilfe unserer augen sehen oder mit
> >>>>> unseren ohren hören können
> >> Das ist - gelinde gesprochen - Unsinn.
>
> das kannst du dann hoffentlich auch begründen.

Aber sicher doch: Obwohl ich mir erlaube, zunächst den exakten Wortlaut
widerzugeben, denn es ist ja so, daß Du die entscheidenden Passagen
gesnippt hast.
Du schriebst: im rahmen unserer möglichkeiten der wahrnehmung haben wir


doch auch hier höchstens die macht, zu behaupten, dass

dieses kind intelligent zu sein _scheint_ (z.b. weil wir


es mit hilfe unserer augen sehen oder mit unseren ohren

hören können - wobei 'sehen' und 'hören' kognitive produkte
darstellen)

So, und nun würde ich gerne wissen, wieso es nicht Unsinn ist, wenn da
gesagt wird, man könne behaupten, daß dies und das der Fall zu sein
scheint, weil wir es doch mit Hilfe unserer Augen usw..
In meinem Verständnis ist alles, was man behauptet, in die Form eines
Satzes gekleidet. Ein solcher verweist (z.B.) auf einen Sachverhalt. Und
wie sollte es nun möglich sein, einen Sachverhalt zu sehen oder zu hören
oder zu schmecken oder zu riechen etc.? Denn Sachverhalte liegen uns ja in
der Form von Sätzen vor. Kannst Du Sätze sehen? Oder hören? Also ich
nicht! Mag sein, daß ich da etwas defizitär strukturiert bin - und in
diesem Fall nehme ich meinen Unsinnigkeitsverdacht auch sofort zurück und
behaupte das Gegenteil. Bis dahin allerdings bin ich der Auffassung, daß
wir Signifikanten sehen (als Gestalten z.B. auf Papier) oder hören (als
Töne), die sich ineins mit ihren (bis dato für unsichtbar gehaltenen)
Signifikaten zu Zeichen (bzw. Symbolen) verdichten und so Bedeutung
generieren, unter anderem z.B. in Sätzen, die dann wiederum als
Behauptungen auftreten können.
Der Unsinnigkeitsvorwurf rührt also ganz einfach aus der Unterstellung,
daß man Sachverhalte in Form von Sätzen (wie z.B. "das Kind ist scheinbar
intelligent") weder sehen noch hören kann, sondern ausschließlich
*erkennen*, wissen usw.. Diese Modi des reflektierenden Bewußtseins sind
doch nicht über's Sehen oder Hören zu haben; sondern stellen doch vielmehr
das ureigenste Geschäft der Reflexion dar, oder?

> >>>>> - wobei 'sehen' und 'hören' kognitive produkt darstellen).
> >> Sehen- und Hören(können) sind doch keine kognitiven Produkte
> >> (was soll das überhaupt sein, ein 'kognitives Produkt'?). Es
> >> sind vielmehr sinnliche Modi der Wahrnehmung.
>
> ich habe inzwischen eine ziemlich genaue darstellung davon, was
> kognitive produkte sind. allerdings habe ich noch nie von
> 'sinnlichen modi der wahrnehmung' gehört. vielleicht meinen wir
> ja das gleiche?

Glaube ich nicht. Ich halte den Modus der sinnlichen Wahrnehmung deshalb
für wichtig, weil es im menschlichen Bewußtsein ja auch eine Wahrnehmung
gibt (oder zu geben scheint), die nicht durch die Sinnesorgane vermittelt
ist. Oder nimmst Du etwa die Angst durch's Auge wahr?

> >>>>> bedeutend schwieriger wird das ganze dadurch, dass wir
> >>>>> bis jetzt keine operationale definition von intelligenz
> >>>>> haben. was soll also die unterscheidung zwischen
> >>>>> intelligenz und scheinbarer intelligenz, wenn wir nicht
> >>>>> mal genau sagen können, worüber wir überhaupt sprechen?
> >> 1. gibt es sehr wohl eine Vorstellung davon, was Intelligenz
> >> sei.
>
> es gibt nicht _eine_, sondern _viele_ vorstellungen, abhängig
> von der interpretationsweise einer person.
>
> jemand kann intelligent sein, wenn er viel weiss, oder wenn er
> schnell denkt, oder wenn er in einer bestimmten situation
> angemessen handelt usw.

Das sind doch alles nur Ausprägungen jener etymologischen Ableitung, die
ich im vorigen Posting versucht hatte.

> [...]


>
> >> Der Schluß, ein Mensch ist intelligent, wenn er rechnen kann
> >> ---> also ist eine Maschine intelligent, weil sie auch rechnen
> >> kann, ist unsinnig;
>
> selbstverständlich ist dieser schluss unsinnig.
> allerdings bist du auch der erste, von dem ich diese
> schlussfolgerung höre.

Na, dann mußt Du Dir mal die einschlägigen Threads hier und anderswo
anschauen.

> >> Etwas verstehen können bedeutet doch nicht, rechnen, schreiben,
> >> lesen, kalkulieren etc. zu beherrschen (dies sind alles
> >> Anwendungen der Fähigkeit, verstehen zu können); sondern vielmehr,
> >> dazu in der Lage zu sein, ein sinnlich oder symbolisch Gegebenes
> >> mit Bedeutungshaftigkeit versehen zu können. Und der Witz dabei
> >> ist, daß dieses sinnlich oder symbolisch Gegebene je nach Lage
> >> der Dinge und kontextspezifisch ganz heterogene Bedeutungen
> >> annehmen kann.
>
> was genau verstehst du denn unter bedeutungen?

Versuchen wir es an einem Beispiel: sinnlich gegeben sei das, was im
Erkenntnisprozeß dann "Baum" heißt. Dieses Ding "Baum" kann je nach
lebensweltlichem Zusammenhang oder Kontext ganz unterschiedliche
Bedeutungen annehmen. Für einen Schreiner z.B. könnte er Holz für einen zu
bauenden Schrank bedeuten. Für einen Wüstenbewohner Schatten. Für einen
Germanen Thors Wohnsitz; und für einen Frierenden Feuerholz.

> >> Verstehen wäre also im weitesten Sinne die Fähigkeit, an sich
> >> bedeutungsoffene Data in spezifische Bedeutungen zu
> >> transformieren - *und* (und das ist besonders wichtig) diesen
> >> Prozess *bewußt* zu erleben, also im Wissen stehend, daß bedeutet
> >> wird, zu bedeuten.
>
> drei mal 'bedeuten' in einem satz? das führt zur verwirrungen :)

Warum? Solange es nicht redundant oder unsinnig wird, ist doch nichts
gegen den mehrfachen Einsatz eines Wortes einzuwenden, oder?

> was verstehst du unter 'bewusst im wissen stehend'

Weiß ich nicht, weil ich das nicht geschrieben habe. Ich würde das für
doppelt gemoppelt halten.

> und inwiefern
> kann eine maschine diesen zustand nicht erfassen?

Na, ganz einfach: weil sie ja kein Bewußtsein hat. Oder hast Du schon mal
eine Maschine mit Selbstbewußtsein gesehen?

> >> Meinst Du im Ernst, daß ein Computer "weiß", was es bedeutet,
> >> wenn er am Ende einer statistischen Auswertung zu dem Ergebnis
> >> kommt, daß es im Konzern X viertausendzweihundertfünfundsechzig
> >> Personalstellen zu viel gibt? Meinst Du, er weiß, *warum* er
> >> diese statistische Auswertung errechnet? Und glaubst Du wirklich,
> >> daß er weiß, daß er gerade diese Auswertung erstellt?
>
> es gibt eine endlose liste von aktivitäten die dein körper ohne
> dein 'bewusstes wissen' vollführt.

Was soll dieses Argument? Handelt es sich denn bei diesen "Aktivitäten" um
mentale Prozesse wie rechnen, schreiben, lesen, denken etc.? Und übrigens:
wenn Du mit Deinem Körper denkst, so ist das Deine Sache. Ich denke im
Bewußtsein.

> >> Womit, oder wodurch, *weiß* er das? Hat er etwa
> >> Selbstbewußtsein? Ein Ich? Und *wie* ist das, dieses Computer-
> >> Ich?
>
> diese fragen kann ich dir nicht beantworten, da ich niemals ein
> computer gewesen bin. für mich ist 'bewusstsein' ein relativer
> begriff. ich möchte behaupten, dass wir bezüglich unserer
> komplexität nicht mehr 'bewusstsein' besitzen, als eine maschine.

Wie verträgt sich der letzte Satz mit dem ersten dieses Abschnittes? Und
was ist ein "relativer Begriff"?

> >> So wie mein Ich, daß sich dessen vollkommen bewußt ist, gerade
> >> über Verstehen zu reflektieren? Hast Du schon mal einen Computer
> >> gesehen, der über das Verstehen reflektiert? Der sich im
> >> Reflexionsakt dessen absolut sicher ist, daß er es ist, der da
> >> über's Verstehen reflektiert? [...]
>
> ich hoffe sehr, dass ich in meinem leben eine solche maschine
> noch erleben werde.

Hesiod schrieb in den Erga, daß Pandora den Deckel auf den Korb warf,
bevor die Hoffnung daraus zu entweichen vermochte wie all die anderen
Übel, mit denen die Götter die Menschen begabt hatten.

> >> Im Gegensatz dazu ist die Maschine ein Klumpen tumber Materie,
>
> ich will dir ja nicht deine heile welt kapputtmachen,

Kannst Du auch gar nicht, weil die nämlich gar nicht existiert. Obwohl's
natürlich schön wäre.

> aber
> dummerweise bestehst du wahrscheinlich aus genau der gleichen
> materie, nur etwas komplexer und anders angeordnet.

Schon. Allerdings bestehe ich eben darüberhinaus noch aus ein ganz klein
wenig mehr. Und das macht den ganzen Unterschied aus, der frweilich
gigantisch ist. Mir ist es ja prinzipiell egal, wenn Du Dich auf's Niveau
irgendwelcher Apparate begeben möchtest, für mich persönlich verbitte ich
mir das aber.

> du hast zwar viel geantwortet (wofür ich dir dankbar bin),
> aber es war keinerlei information enthalten, die mich eines
> besseren belehren kann.

Tja, so ist's halt manchmal ...

> >> Es sei noch angemerkt, daß "intelligent sein",
> >> "verstehen können" etc., als reine Formen, als menschliche
> >> Dispositionen, als Leistungen eines wie auch immer gearteten
> >> Bewußtseins
>
> klassischer fall von Dualismus

Was ist denn das? Kann man das essen?

> >> Aber noch einmal: am wichtigsten ist dabei die prinzipielle
> >> Fähigkeit, das alles zu vermögen. - Welche Maschine hat ein
> >> derartiges Potential?
>
> das gehirn besteht aus ca. 10 milliarden nervenzellen, die
> auf komplizierteste art und weise mit einander verschalten
> sind.

Na und? Was bringt diese Information für vorliegendes Problem? Wissen wir,
wenn wir diese Trivialität wissen, dann auch nur ein Quentchen mehr über
die Art und Weise, wie und wodurch wir denken? Warum wir Bewußtsein haben
und nicht mehr wie die Lurche durch den Schlonz kriechen?

Mit freundlichen Grüßen

Uwe

Jakob Voß

unread,
Apr 15, 2000, 3:00:00 AM4/15/00
to
Gerke Preussner schrieb:

> erkennen, wählen und alternativen erfassen können maschinen in
> einem stark eingeschränkten kontext schon seit jahrzehnten.
> insbesondere auf dem gebiet des erkennens hat es während der
> letzten jahre fantastische fortschritte gegeben.

Erkennung != Erkenntnis



> das grösste hindernis dieser entwicklung ist, dass wir die
> meisten prozesse in unserem körper (besonders im gehirn)
> noch nicht gut genug verstehen.

Das größte Hindernis ist, dass die KIler immer dann wenn
es interessant wird (Bewußtsein) auf die Zukunft verweisen.

Ich bin aber genauso: Ich *glaube* zwar, dass es irgendwann
intelligente bewußte Maschinen geben wird, aber solche Annahmen
(oder die Annahme des Gegenteils!) sind der Diskussion eher
hinderlich.


> eine 'aufforderung' ist kommunikation. damit sinnvolle
> kommunikation möglich ist, bedarf es _immer_ eines eindeutigen
> kontextes, damit der empfänger einer information die richtige
> aus mehreren möglichen bedeutungen auswählen kann.

Naja. Es bedarf zumindest eines Verständnisses von Kontext;
d.h. die Fähigkeit eine Nachricht gleichzeitig auf verschiedene
Weisen interpretieren zu können und abzuwägen, in welcher
Intention der Sender die Nachricht abgesand hat, um den
vermeintlich "richtigen" Kontext auszuwählen.


> was diese maschine nicht kann, ist den richtigen kontext zu
> finden. wenn wir unsere maschine mit etwas mehr *sinnesorganen
> austatten dürfte diese aufgabe (von der schwierigkeit her)
> äquivalent zum erkennen von gesichtern sein.

Die Maschine könnte vielleicht in immer mehr verschiedenen
Kontexten agieren aber die Schwierigkeit besteht doch gerade
im Abwägen derselben. Diese Aufgabe ist qualitativ bedeutend
schwieriger zumal die Maschine die verschiedenen Kontexte
selber erschaffen muß (ein rekursives Problem), solange das
Universum in dem sie agiert nicht klar definiert ist.


> wenn das problem bekannt ist, dann muss eine maschine nicht
> einmal 'künstliche' intelligenz besitzen, um die erwartete
> ausgabe zu liefern.

Genau das ist der Springende Punkt: Ob eine ausgabe erwartet
ird oder nicht ist selbst Teil des Problems!


> insbesondere vermute ich, dass 'scheinbare' intelligenz einer
> maschine gemäss unseren betrachtungsmöglichkeiten gleichwertig
> zur 'wahrhaften' intelligenz des menschen äquivalent ist.

Vielleicht könnte eine Maschine, die diesen Satz
versteht einige Philosophen überzeugen? ;-)))


> >> Das Hauptproblem dabei ist meiner bescheidenen Meinung nach,
> >> daß die KI'ler wegen ihrer defizienten Vorstellung davon, was
> >> Intelligenz (und "Verstehen" bzw. "Bewußtsein) sei, eine
> >> vollkommen unsinnige Debatte vom Zaume reißen. Denn tatsächlich
> >> *verstehen* sämtliche bis heute gebauten Maschinen natürlich
> >> überhaupt nichts.
>
> da ich mich nur interessenhalber mit dieser problematik befasse,
> überlasse ich die kommentierung dieser aussage den aktiven KI'lern.

Ohne Aussagen darüber was die KI kann und was nicht finde ich
diese Diskussion ehrlich gesagt ziemlich sinnlos.


> ich empfehle dir, wenigstens mal die einleitung eines KI buches
> zu lesen. dort findest du i.d.R. eine auflistung davon, was KI
> bedeutet, was man damit erreichen kann und was (derzeit) nicht
> im bereich des machbaren liegt.

Ja was liegt denn nun im Bereich des Machbaren?

Kann mir bitte mal jemand aktuelle Literatur/Internet-Verweise geben?
Meinem Eindruck nach lassen sich aktuelle Systeme schon mit einfachen
Tieren vergleichen.
Aber: Wann ist ein Tiere intelligent?


> diese fragen kann ich dir nicht beantworten, da ich niemals ein
> computer gewesen bin. für mich ist 'bewusstsein' ein relativer
> begriff. ich möchte behaupten, dass wir bezüglich unserer
> komplexität nicht mehr 'bewusstsein' besitzen, als eine maschine.

Allerdings sind wir bis jetzt noch intelligenter!


Jakob,
der sich auch nur für eine scheinbar intelligente Maschine hält

--
jakob...@s1999.tu-chemnitz.de
http://www.tu-chemnitz.de/~voj/

Uwe Flehmig

unread,
Apr 16, 2000, 3:00:00 AM4/16/00
to
Hallo Arne,

noc...@my-deja.com schrieb:

> In article <38F62D39...@bluewin.de>,
> Uwe Flehmig <uwe.f...@bluewin.de> wrote:

> > Das Hauptproblem dabei ist meiner bescheidenen Meinung nach, daß die
> > KI'ler wegen ihrer defizienten Vorstellung davon, was Intelligenz
> > (und "Verstehen" bzw. "Bewußtsein) sei, eine vollkommen unsinnige
> > Debatte vom Zaume reißen.
>

> Sei mir nicht böse, aber meiner bescheidenen Meinung nach liegt
> diese "unsinnige Debatte" zu nicht kleinen Teilen daran, daß viele
> Philosophen eine defiziente Vorstellung davon haben, was KI ist, und
> was sie erreichen will.

Das ist ja hier nicht das Problem. Sondern der Unterschied zwischen
"scheinbarer" und wirklicher Intelligenz. Es ziemt sich auch für Vertreter
der KI-Thesen, in einer Diskussion beim Thema zu bleiben. Tun sie das nicht,
müssen sie sich nicht wundern, daß sie niemand mit wissenschaftlichem
Anspruch ernstnimmt. Denn dann gleichen sie sich letztlich doch nur dem an,
woran ihr falsches Bild von der Wirklichkeit krankt: nämlich daß auch eine
Maschine nicht zu *argumentieren* versteht.

> > Denn tatsächlich *verstehen* sämtliche bis heute gebauten
> > Maschinen natürlich überhaupt nichts.

> [Rest des Gefühlsausbruchs gesnippt]
>
> Aha. Das Argument höre ich immer wieder. Seufz.

Umso schlimmer, daß Du nicht darauf einzugehen vermagst. Ein Seufzer ist nur
in bestimmten Kontexten als Argument zu gebrauchen. Hier - so glaube ich -
wohl kaum.

> Überraschung: Die KI behauptet das auch nicht. Ich kenne zwar ein paar
> Beispiele sensationshungriger Journalisten (und auch Informatiker die
> anscheinend dringend Geld brauchten), die entsprechendes behauptet
> haben - da wird dann gerne davon gesprochen, daß das Programm X "weiß"
> was Umstand Y bedeutet. Aber die sollte man nicht zu ernst nehmen.

Da stimme ich Dir gerne zu.

> Die
> Philosophie will auch nicht an einem gemessen werden, der mal vor ein
> paar hundert Jahren die Existenz Gottes durch Zirkelschluß "bewiesen"
> hat, oder?

Warum nicht? Die Philosophie muß sich ihrer Geschichte nun wahrlich nicht
schämen. Und da sie als Wissenschaft notwendig irrtumsanfällig ist, wird sie
überall dort, wo sie substantiell ist, auch nicht auf Unfehlbarkeit ihrer
Urteile pochen.
Zudem ist sie über weite Strecken auch gar nicht ohne hermeneutisches Zutun
zu haben. Und dieses nun wiederum erheischt, Aussagen und Thesen in ihren
jeweiligen Kontexten zu betrachten. Insofern also wird sie ihre Aktualität
sehr wohl auch an Sätzen zu prüfen haben, die schon vor Jahrhunderten
aufgestellt wurden. Und übrigens gibt es auch philosophische Erkenntnisse,
die schon Jahrtausende überstanden haben.

> Die KI versucht (unter anderem) eine mit menschlicher vergleichbare
> Intelligenz zu entwicklen, die auf einem Turing Maschine Äquivalent
> läuft. Sie behauptet keinesfalls, damit schon Erfolg gehabt zu haben.

Das ist auch sehr vernünftig. Was allerdings die Frage nicht überflüssig
macht, ob das Ansinnen überhaupt sinnvoll ist.

> Wenn man durch wiederholtes Anführen der Beobachtung, daß Erfolg bisher
> ausblieb, "beweisen" will, daß es prinzipiell unmöglich sei (ich will
> es dir mal nicht unterstellen), würde man sich doch eher lächerlich
> machen. Findest du nicht?

Das ist nicht die Frage. Der Ansatz der Kritik ist ja ein ganz anderer: denn
es wird behauptet, so etwas wie maschinelle Intelligenz sei prinzipiell
möglich. Und meines Wissens steht bisher noch das überzeugende Argument
dafür aus, daß man sich mit einer solchen - aus meiner Sicht doch reichlich
schwachsinnigen Annahme - überhaupt beschäftigen sollte. Das Wort
*künstliche* Intelligenz meint ja bereits, daß es sich dabei um etwas
Geschaffenes handeln muß. Und wie nun bitteschön soll denn etwas geschaffen
werden können, wenn man noch nicht einmal hinreichend versteht, wie es um
das "Vorbild", also die menschliche Intelligenz, bestellt ist. Wo - nur mal
so zum Beispiel - wäre denn die Verifikationsgrundlage einer eventuellen
Behauptung, irgendeine Maschine sei intelligent, wenn wir uns die Kriterien
(noch) gar nicht zu entwickeln vermögen, die eine solche Verifikation zu
stützen hätten. Es bliebe uns doch im Moment gar nichts anderes als die
Beobachtung, oder? - Gewissermaßen ist das wie mit der Alchimie im
Mittelalter: man suggerierte dort in den einschlägigen Kreisen immer gern,
daß man Gold zu machen imstande sei. Heraus kam entweder immer nur
Bullschitt oder eben - wie im Falle Böttchers - etwas anderes, z.B.
Porzellan. - Und willst Du nun behaupten, daß Porzellan = Gold sei?
Im Übrigen ist da noch eine kleine Differenz, die für den höheren
Intelligenzgrad der Alchimisten im Vergleich zu den KI'lern spricht: denn
erstere hatten wenigstens noch ein Motiv auf ihrer irren Goldsuche, ganz
einfach, weil das Edelmetall knapp war. Der Erfolg ihrer Suche hätte also
zumindest nicht nutzlos genannt werden können. - Doch wie steht es denn in
diesem Zusammenhang um das Begehren, eine der menschlichen Intelligenz
vergleichbare Maschine zu konstruieren? Wozu brauchen wir das? An
menschlicher Intelligenz ist doch nun wahrlich kein Mangel, oder? Brauchen
wir noch mehr davon?

> Du behauptest, "Verstehen" hängt insbesondere davon ab, Informationen
> in Kontexte zu setzen. OK, sehe ich auch so. Aber gibt es einen Grund,
> warum eine entsprechend programmierte Maschine das nicht können sollte?

Aber natürlich gibt es den: dazu müßte eine Maschine bereits *verstehen*
können. Denn ohne Verstehen des Kontextes gibt es doch keine Chance,
irgendwelche Informationen den entsprechenden Kontexten zuzuordnen. Und wie
soll eine Maschine das tun? Dazu müßtest Du ihr doch erstmal ein Bewußtsein
implantieren. Und wie machst Du das? Vielleicht dadurch, daß Du ein paar
Synapsen, Hirnströme und einen Transmitteraustausch etc. simulierst. Meine
Güte ...

> Mir scheint es so, daß du hier deinem Ärger gegen den KI-Hype der
> letzten Jahrzente Luft machen willst (nicht böse sein, OK?).

Nein, der interessiert mich überhaupt nicht. Ich versuche lediglich, gegen
den unterbelichteten Gebrauch einiger hochsensibler Termini zu
argumentieren. Es gibt hier Diskussionsteilnehmer, die mit solchen Begriffen
wie *Intelligenz*, *Bewußtsein*, *Verstehen* etc. umgehen, als würden sie
sich im Hundesalon mit Frau Meyer über die neuesten Shampoos für Pudel Waldi
unterhalten. Und es mag ja sein, daß das das Niveau der KI-Leute ist - was
mich auch nicht weiter stört. Nur, diese Gruppe hier heißt sci.phil...

> Nun,
> bittesehr, den halte ich auch für gräßlich und der Sache nicht dienlich.
> Genauso wie einige führende Vertreter auf dem Gebiet (Hofstadter und
> sein FARG Team). Mir scheint es allerdings auch so, daß du dich mit dem
> gegenwärtigen Stand der KI nicht sonderlich gut auskennst (vielleicht
> irre ich mich da auch!).

Würdest Du eine Currywurst aus einer Bude essen, von der Du weißt, daß die
vielleicht ganz gute Pommes machen, ihr Fleisch aber aus der Abdeckerei
beziehen? - Und wie, wenn Du nun ganz zufälligerweise keine Pommes magst?

> Ein Program wie z.B. 'Copycat' hat zwar lange
> nicht das, was man unter menschlicher Verständnisfähigkeit verstehen
> würde, aber es zeigt in seiner microdomain doch recht erstaunliche
> Fähigkeiten, die zumindest Ansatzweise in die "Richtung gehen". Findest
> du nicht?

Kann ich nicht beurteilen, weil ich das Programm nicht kenne. Aber
"erstaunliche Fähigkeiten" stellen für mich keine Versuchung dar, diese in
Augenschein zu nehmen.

> (Eine Beschreibung von Copycat und ähnlichen Ansätzen findet du in dem
> IMHO recht lesenswerten Buch: "Fluid Concepts & Creative Analogies :
> Computer Models of the Fundamental Mechanisms of Thought" by Douglas R.
> Hofstadter)

Vielen Dank für den Hinweis. Allerdings macht mich der Ausweis des Autors
ein wenig skeptisch. Ich gestehe aber, daß das einer Idiosynkrasie
geschuldet sein mag, die in der Argumentation nichts zu suchen hat.

> [...]


> > Aber noch
> > einmal: am wichtigsten ist dabei die prinzipielle Fähigkeit, das alles
> > zu vermögen. - Welche Maschine hat ein derartiges Potential?
>

> Jeder Computer mit hinreichend hoher "Leistung" hat IMHO dieses
> Potential. Es zu verwirklichen, das ist eine andere Sache.

Dieser Satz hat IMHO die Struktur eines quasi-theologischen Dogmas. Wir
können uns gerne darüber unterhalten, wie der Erkenntnisgehalt solcher Sätze
zu betrachten sei.

Mit freundlichen Grüßen

Uwe

Peter Prikasky

unread,
Apr 17, 2000, 3:00:00 AM4/17/00
to
Hallo.

Ihr schreibt, daß muß ich schon sagen, wirklich teilweise verdammt gut, eure
Argumente sind ausgezeichnet und zeigen von reichlicher (besser als bei mir)
Lektüre des Themas.

Aber kann ich nicht sehr viele eurer Argumente gegen die maschinelle
Intelligenz einfach schreiben als: ' Weil sie (die Machinen) keine Menschen
sind. ' ?

Das dürfte (vor allem von Uwe) der hinter der komplexen Argumentation
liegende Hauptpunkt sein. Nach euren Argumenten ist kein, aber auch gar kein
informationsverarbeitendes System außer einem menschlichen Gehirn auf diesem
Planeten intelligent. Kein Tier, kein Computer, nichts. Das scheint mir eine
reichlich enge Definition zu sein.

Das erscheint mir, als würde ich bei der Definition von 'Leben' die
Forderung erheben: Es muß! bis in alle Einzelheiten dieselbe chemische
Struktur der DNA (mit den 4 berühmten Bausteinen, deren Bezeichnungen mir
nicht einfallen) aufweisen. Na, dann werden wir mit hoher Wahrscheinlichkeit
die einzige Lebensform im Universum bleiben. Bei der Intelligenz liegt es
ähnlich.

PS:

1) Vor langer Zeit definierte man z.Bsp. Schach als ein Spiel, welches als
Indikator für 'Intelligenz' geeignet ist. Richtig, das war zu einer Zeit als
Computer weit von einem Sieg über Großmeister entfernt war. Nun, ein
Computer hat (mit brute force, klar) gegen den Weltmeister gewonnen. Nun
sagt der Mensch: 'Na gut, scheinbar ist zum Schachspielen doch keine
Intelligenz erforderlich'. Beim nächsten von Computern gelösten Problem wird
die Ausrede wohl ähnlich sein.

2) Die Aussage 'Computer machen was ihnen programmiert wird' ist sicher
richtig. Hat IMHO aber zwei Haken:

- Viele Programme sind mehr als 'Hilfe zur Selbsthilfe' gedacht. Neuronale
Netze lösen Probleme nicht nach vorgegebenen Algorithmen, sie entdecken dem
Menschen verborgene Zusammenhänge und nutzen diese aus. Ihre Komplexität
liegt momentan weit unter der eines menschlichen Gehirnes, darum werden sie
noch belächelt, mit derselben Arroganz belächelt der Mensch aber die
komplette Tierwelt dieses Planeten.

- Letzendlich ist aber auch das ein Neuronales Netz bildende Programm von
einem Menschen geschrieben. Es ist streng deterministisch (die Frage ist
aber: ein menschliches Gehirn auch ?) und theoretisch ist bei genauer
Kenntnis seiner Eingaben jeder Folgeszustand bestimmbar. Was mich aber an
der Argumentation 'Ich habe den Computer programmiert, ich weiß was er tut'
stört ist die Frage: Warum besiegt uns diese von uns programmierte Maschine
dann im Schach, obwohl wir ja so genau wissen was sie tut ? Kann es nicht
sein, daß eine erheblich komplexere Maschine als diese Schachmaschine, die
Züge findet die keiner einprogrammiert hat (OK, implizit schon, da sie ja
deterministisch ist, aber die Vorhersehbarkeit ist rein theoretisch, da die
Maschine zu schnell 'denkt'), vielleicht Gedanken formuliert, die ebenfalls
vorher nicht formuliert wurden ? Vielleicht ist ein menschliches Gehirn bei
genauer Kenntnis des Zustandes und aller Eingaben genauso vorhersehbar (Was
genauso theoretisch wie bei einem Computer ist) ?

mfG
Peter

dr...@incogni.to

unread,
Apr 17, 2000, 3:00:00 AM4/17/00
to
In de.sci.philosophie Peter Prikasky <peter.p...@xpoint.at> wrote:
: - Letzendlich ist aber auch das ein Neuronales Netz bildende Programm von

: einem Menschen geschrieben. Es ist streng deterministisch (die Frage ist

Nicht unbedingt, es gibt Computer mit Zufallsgeraet und unsere
derzeitigen physikalischen Theorien weisen darauf hin, dass es
echten Zufall (im Sinne von: Unvorhersagbarkeit) gibt.

: stoert ist die Frage: Warum besiegt uns diese von uns

: programmierte Maschine
: dann im Schach, obwohl wir ja so genau wissen was sie tut ?

Weil sie besser Schach spielt als wir. Wo ist das Problem? Ein Bagger
kann auch schneller buddeln als ein Mensch ohne Bagger, der weiss,
wie ein Bagger funktioniert.

noc...@my-deja.com

unread,
Apr 17, 2000, 3:00:00 AM4/17/00
to
In article <38FA139A...@bluewin.de>,
Uwe Flehmig <uwe.f...@bluewin.de> wrote:

> noc...@my-deja.com schrieb:

> > Aha. Das Argument höre ich immer wieder. Seufz.
>
> Umso schlimmer, daß Du nicht darauf einzugehen vermagst. Ein Seufzer
> ist nur in bestimmten Kontexten als Argument zu gebrauchen. Hier - so
> glaube ich - wohl kaum.

Was an "Die KI behauptet das auch nicht" hast du denn nicht verstanden?


> Das ist nicht die Frage. Der Ansatz der Kritik ist ja ein ganz
> anderer: denn es wird behauptet, so etwas wie maschinelle Intelligenz
> sei prinzipiell möglich. Und meines Wissens steht bisher noch das
> überzeugende Argument dafür aus, daß man sich mit einer solchen - aus
> meiner Sicht doch reichlich schwachsinnigen Annahme - überhaupt
> beschäftigen sollte.

Inwiefern hat deine Behauptung, es sei prinzipiell unmöglich (bzw.
schwachsinnig sich damit zu beschäftigen) mehr Wahrheitswert als die
Behauptung der KI, es _sollte_ prinzipiell möglich sein? Du darfst das
von mir aus gerne behaupten, aber du solltest schon ein paar Argumente
bringen. Und nicht nur in einem fort darauf verweisen, daß es die KI
bisher ja nicht geschafft hat.
Ein mMn gutes Argument für die Beschäftigung mit KI ist der Mensch
selbst. Der - da wirst du wohl zustimmen - Intelligent ist, sich aber
allem Anschein nach auch aus etwas Unintelligentem (eine Anhäufung von
Zellen vor langer langer Zeit) entwickelt hat.


> Das Wort *künstliche* Intelligenz meint ja bereits, daß es sich dabei
> um etwas Geschaffenes handeln muß. Und wie nun bitteschön soll denn
> etwas geschaffen werden können, wenn man noch nicht einmal
> hinreichend versteht, wie es um das "Vorbild", also die menschliche
> Intelligenz, bestellt ist.

Interressiert es dich nicht, wie es um das "Vorbild" bestellt ist? Eine
klassische Methode das herauszufinden ist zu versuchen, seine
Wirkungsweise auf anderem Wege nachzuahmen.

> Wo - nur mal so zum Beispiel - wäre denn die Verifikationsgrundlage
> einer eventuellen Behauptung, irgendeine Maschine sei intelligent,
> wenn wir uns die Kriterien (noch) gar nicht zu entwickeln vermögen,
> die eine solche Verifikation zu stützen hätten.

Mit diesem Satz lieferst du ein überzeugendes Argument, warum man nicht
davon ausgehen sollte, daß maschinelle Intelligenz prinzipiell
unmöglich sei.

> Es bliebe uns doch im Moment gar nichts anderes als die
> Beobachtung, oder?

Daher wohl das Subject diese Threads, hmm?


> > Du behauptest, "Verstehen" hängt insbesondere davon ab,
> > Informationen in Kontexte zu setzen. OK, sehe ich auch so. Aber
> > gibt es einen Grund, warum eine entsprechend programmierte Maschine
> > das nicht können sollte?

> Aber natürlich gibt es den: dazu müßte eine Maschine bereits
> *verstehen* können. Denn ohne Verstehen des Kontextes gibt es doch
> keine Chance, irgendwelche Informationen den entsprechenden Kontexten
> zuzuordnen.

Du widersprichst dir anscheinend. "Verstehen hängt davon ab,
Informationen in Kontext zu setzen" und "Ohne Verstehen kann man keine
Informationen in Kontext setzen". Laut deiner Begründung können dann
auch Menschen nicht verstehen: Zu einem bestimmten Zeitpunkt (sagen wir
mal kurz nach der Zeugung) verstehen sie offensichtlich nicht, zu einem
anderem Zeitpunkt (erwachsen) können sie es aber doch, mit einem
kontinuierlichem Entwicklungsprozess dazwischen. Gibt es deiner Ansicht
nach einen Moment, in dem die Fähigkeit zu Verstehen "magisch" von
außen injiziert wird?


> > Mir scheint es allerdings auch so, daß du dich mit dem
> > gegenwärtigen Stand der KI nicht sonderlich gut auskennst
> > (vielleicht irre ich mich da auch!).
>
> Würdest Du eine Currywurst aus einer Bude essen, von der Du weißt,
> daß die vielleicht ganz gute Pommes machen, ihr Fleisch aber aus der
> Abdeckerei beziehen? - Und wie, wenn Du nun ganz zufälligerweise
> keine Pommes magst?

Schlechte Analogie. Besser: Würdest du Wittgenstein lesen wollen, wenn
du von der (vielleicht falschen) Annnahme ausgehst, daß er nicht viel
von wissenschaftlicher Methodik hielt, und von daher auch kaum dazu in
der Lage war (für dich) wertvolles Wissen zu finden?
Ich verlange nicht von dir, daß du dich intensiv mit KI beschäftigen
sollst. Aber wenn du ernst genommen werden möchtest, solltest du etwas
vorsichtiger formulieren. Jedenfalls wenn du über Bereiche sprichst,
von denen du (implizierst du ja selbst) keinen Überblick hast.


> > (Eine Beschreibung von Copycat und ähnlichen Ansätzen findet du in
> > dem IMHO recht lesenswerten Buch: "Fluid Concepts & Creative
> > Analogies : Computer Models of the Fundamental Mechanisms of
> > Thought" by Douglas R. Hofstadter)

> Vielen Dank für den Hinweis. Allerdings macht mich der Ausweis des
> Autors ein wenig skeptisch. Ich gestehe aber, daß das einer
> Idiosynkrasie geschuldet sein mag, die in der Argumentation nichts zu
> suchen hat.

Willst du mir damit sagen, daß dein emotionaler Standpunkt in der Sache
unter Umständen deinen Blick für das Wesentliche trüben könnte?

Jakob Voß

unread,
Apr 17, 2000, 3:00:00 AM4/17/00
to
Uwe Flehmig schrieb:

[...]



> > Die KI versucht (unter anderem) eine mit menschlicher vergleichbare
> > Intelligenz zu entwicklen, die auf einem Turing Maschine Äquivalent
> > läuft. Sie behauptet keinesfalls, damit schon Erfolg gehabt zu haben.
>
> Das ist auch sehr vernünftig.
> Was allerdings die Frage nicht überflüssig macht, ob das Ansinnen
> überhaupt sinnvoll ist.

Ist die Frage ob Philosophie überhaupt sinnvoll ist überflüssig?

[...]

> > Mir scheint es so, daß du hier deinem Ärger gegen den KI-Hype der
> > letzten Jahrzente Luft machen willst (nicht böse sein, OK?).
>
> Nein, der interessiert mich überhaupt nicht. Ich versuche lediglich,
> gegen den unterbelichteten Gebrauch einiger hochsensibler Termini zu
> argumentieren. Es gibt hier Diskussionsteilnehmer, die mit solchen Begriffen
> wie *Intelligenz*, *Bewußtsein*, *Verstehen* etc. umgehen, als würden sie
> sich im Hundesalon mit Frau Meyer über die neuesten Shampoos für Pudel Waldi
> unterhalten. Und es mag ja sein, daß das das Niveau der KI-Leute ist - was
> mich auch nicht weiter stört. Nur, diese Gruppe hier heißt sci.phil...

soweit ich es richtig mitbekommen habe läuft bisher der gesamte
Thread parallel in de.sci.philosophie *und* de.sci.informatik.ki


Jakob

--
jakob...@s1999.tu-chemnitz.de
http://www.tu-chemnitz.de/~voj/

Gerke Preussner

unread,
Apr 17, 2000, 3:00:00 AM4/17/00
to
>> Aber kann ich nicht sehr viele eurer Argumente gegen die
>> maschinelle Intelligenz einfach schreiben als: ' Weil sie (die
>> Machinen) keine Menschen sind. ' ?

nein, das reicht nicht.

maschinen sind nicht in jeder beziehung menschlich, weil sie keine
menschen, sondern maschinen sind. über die intelligenz sagt dies
jedoch nichts aus.

>> Das dürfte (vor allem von Uwe) der hinter der komplexen
>> Argumentation liegende Hauptpunkt sein.

argumente habe ich von ihm bisher noch nicht gelesen, lediglich
einige behauptungen. deshalb hat er mich von seiner meinung
nachwievor nicht überzeugen können.

>> Nach euren Argumenten ist kein, aber auch gar kein
>> informationsverarbeitendes System außer einem menschlichen
>> Gehirn auf diesem Planeten intelligent. Kein Tier, kein Computer,
>> nichts. Das scheint mir eine reichlich enge Definition zu sein.

das ist keine definition sondern ebenfalls eine behauptung.

ich behaupte einfach mal, dass maschinen bezüglich
überlebensstrategien zur zeit etwas weniger intelligent als tiere
sind, die wiederum etwas weniger intelligent als menschen sind.

>> Das erscheint mir, als würde ich bei der Definition von 'Leben'
>> die Forderung erheben: Es muß! bis in alle Einzelheiten dieselbe
>> chemische Struktur der DNA (mit den 4 berühmten Bausteinen, deren
>> Bezeichnungen mir nicht einfallen) aufweisen. Na, dann werden wir
>> mit hoher Wahrscheinlichkeit die einzige Lebensform im Universum
>> bleiben. Bei der Intelligenz liegt es ähnlich.

die frage nach einer definition für 'leben' konnte mir in der
schule schon nicht zufriedenstellend beantwortet werden. ich glaube
wir haben da eine etwas märchenhafte wunschvorstellung von der
bedeutung des lebens an sich (bitte nicht falsch verstehen!)

wenn ich mich recht erinnere reichen zum leben aus biolog. sicht
- atmung
- stoffwechsel
- und ein paar andere primitive dinge, die mir nicht mehr einfallen

biologen können dazu sicher mehr sagen.

zwischen lebender und toter materie besteht kein so grosser
unterschied, denn der schmale grat zwischen 'lebendig' und 'tot' ist
wohldefiniert (man beachte das 'definiert' in wohldefiniert).

auf einem höheren betrachtungslevel sind WIR natürlich lebendig,
während eine maschine tot ist. von einem weitaus niedrigeren
level aus gesehen besteht jedoch ein berechtigter grund zur
annahme, dass die maschine genauso lebendig/tot ist, wie wir.

>> 1) Vor langer Zeit definierte man z.Bsp. Schach als ein Spiel,
>> welches als Indikator für 'Intelligenz' geeignet ist. Richtig,
>> das war zu einer Zeit als Computer weit von einem Sieg über
>> Großmeister entfernt war. Nun, ein Computer hat (mit brute force,
>> klar) gegen den Weltmeister gewonnen.

der (zugegeben bescheidene) fortschritt der KI liegt ja gerade darin,
dass derartige probleme NICHT mehr mit methoden der rohen gewalt
gelöst werden. es war schon relativ früh klar, dass man u.a. mit
heuristischen algorithmen wesentlich schneller brauchbare ergebnisse
erziehlt.

KI ist doch nicht in den 50er/60er jahren stehengeblieben, als die
fähigkeit zu addieren schon als intelligent angesehen wurde...

>> Nun sagt der Mensch: 'Na gut, scheinbar ist zum Schachspielen doch
>> keine Intelligenz erforderlich'. Beim nächsten von Computern
>> gelösten Problem wird die Ausrede wohl ähnlich sein.

natürlich wird es solche 'ausreden' immer wieder geben.

das entscheidende ist, dass diese sogenannten 'ausreden' aber immer
mehr der realität ähneln. dieser prozess wird sich solange fortsetzen,
bis von uns keiner mehr unterscheiden kann, ob es sich um eine ausrede
handelt, oder nicht.

auf die gleiche weise wird sich der begriff der intelligenz immer
mehr erweitern. nach jedem erfüllen eines intelligenzkriteriums
wir man ein paar neue kriterien als wichtig empfinden. ich glaube
jedoch nicht, dass dies eine unendliche entwicklung ist, da unsere
fähigkeiten der wahrnehmung begrenzt sind. folglich werden wir in
zukunft intelligente maschinen besitzen (ganz gleich, ob diese aus
holz, kupfer, silizium oder organischen grundstoffen bestehen)

>> mit derselben Arroganz belächelt der Mensch aber die komplette
>> Tierwelt dieses Planeten.

vielleicht ist es auch einfach nur die angst vor der möglichen
wahrheit?

>> - Letzendlich ist aber auch das ein Neuronales Netz bildende
>> Programm von einem Menschen geschrieben. Es ist streng

>> deterministisch (die Frage ist aber: ein menschliches Gehirn auch


>> ?) und theoretisch ist bei genauer

genau darum geht es.
theoretisch wäre dieses programm natürlich deterministisch.

wenn ich meinem programm aber vergleichbar komplexe
'wahrnehmungsmöglichkeiten' (sensoren) verleihe, wie sie der mensch
besitzt, und wenn ich diese sensoren mit einer datenflut versorge,
wie sie das menschliche hirn verarbeitet, dann können wir doch wohl
eher von dem sprechen, was manche menschen mit 'zufall' bezeichnen.

wenn man annimmt, dass es sowas wie zufall gibt, dann könnte natürlich
auch nicht-determinismus existieren. manche behaupten ja, der zufall
würde in der quantenmechanik verborgen liegen. für unsere maschine
würde dies aber nichts ändern. in chipkarten benutzt man beispielsweise
das rauschen einer diode, um zufallszahlen zu generieren. wer glaubt,
dass das rauschen nicht-deterministisch ist, kann hier von
'zufallszahl' sprechen.

mit genau diesen zufallszahlen könnten wir unsere maschine füttern,
wodurch die lücke zum nicht-deterministischen menschen bereits
gestopft wird.

wenn du davon ausgehst, dass zufall in dieser form nicht existiert,
dann ist auch jeder theoretische nicht-deterministische automat (oder
gehirn) bei betrachtung einer hinreichend grossen umgebung
deterministisch.

letztendlich ist das aber völlig egal (ausser du gehst davon aus,
dass sämtliche materie anderen gesetzen genügt, als die abläufe in
deinem körper).

>> Kenntnis seiner Eingaben jeder Folgeszustand bestimmbar. Was mich
>> aber an der Argumentation 'Ich habe den Computer programmiert, ich
>> weiß was er tut'

das war einmal.

bei entsprechend komplexen vorgängen kannst du nur noch grob angeben,
wofür das programm gedacht war. das gleiche gilt aber gewissermassen
auch für menschen.

>> stört ist die Frage: Warum besiegt uns diese von uns programmierte


>> Maschine dann im Schach, obwohl wir ja so genau wissen was sie tut?

weil das problem 'schach' konstruktionsbedingt nicht für unser gehirn
geeignet ist, wohl aber für maschinen, die ettliche millionen züge in
bruchteilen von sekunden durchführen, abspeichern und anschliessend
auswerten können.

ich bin zwar kein professioneller schachspieler, aber selbst wenn ich
mal schach spiele, dann benutze ich bestimmte algorithmen. ich habe
weder eine vision durch den lieben gott, noch fällt in meinem kopf
durch nicht-determinismus ein schalter, um meinen nächsten schritt wie
durch ein wunder zu bestimmen.

wenn man intelligenz am schachspielen misst, dann hat die KI ihr ziel
bereits erreicht :)

>> Kann es nicht sein, daß eine erheblich komplexere Maschine als
>> diese Schachmaschine, die Züge findet die keiner einprogrammiert
>> hat (OK, implizit schon, da sie ja deterministisch ist, aber die
>> Vorhersehbarkeit ist rein theoretisch, da die Maschine zu schnell
>> 'denkt'), vielleicht Gedanken formuliert, die ebenfalls vorher
>> nicht formuliert wurden ? Vielleicht ist ein menschliches Gehirn
>> bei genauer Kenntnis des Zustandes und aller Eingaben genauso
>> vorhersehbar (Was genauso theoretisch wie bei einem Computer ist)?

schach ist nichts anderes als ein system von regeln. durch primitives
durchprobieren aller möglichkeiten kann ein hinreichend schneller
rechner jeden menschen der welt schlagen (oder zumindest ein
unentschieden erzielen).

in der KI geht es jedoch nicht darum, den menschen zu besiegen,
sondern um das finden von algorithmen, die das gleiche ergebnis mit
weniger aufwand erreichen. ein mensch kann nun mal nur endlich viele
schritte 'vorherberechnen' und muss ab einer gewissen grenze mit hilfe
von erfahrungen abwägen, welchen zug er durchführen wird.

genau dies ist es, was einen menschen menschlich macht. die KI
versucht, diesen sachverhalt zu modellieren. es geht darum, einen
*intelligenten lösungsweg zu finden. ob eine *richtige lösung gefunden
wird ist eher zweitrangig. auch menschen treffen immer wieder gerne
ein paar fehlentscheidungen.


j3rky

Gerke Preussner

unread,
Apr 18, 2000, 3:00:00 AM4/18/00
to
>> Ich würde es mal mit Descartes probieren: Ich denke, also bin ich.
>> D.h. Du kannst Dir zumindest sicher sein zu denken. Um aber denken
>> zu können, mußt Du wenigstens rudimentär intelligent sein. Und
>> diese Intelligenz kannst Du jetzt benutzten, da Du Dich ihrer
>> versichert hast.

kein problem, mit dieser sichtweise kann ich mich durchaus anfreuden.

nun verrate mir aber mal, inwiefern uns das von einer scheinbar
intelligenten maschine unterscheiden würde?

stell dir vor, unsere maschine kann sowohl seine umwelt wahrnehmen,
als auch manipulieren. durch einen *zufall wäre es möglich, dass
sich diese maschine mit hilfe ihrer sensoren (kamera etc.) selbst
sieht und sich bezüglich einer gegebenen aufgabenstellung (z.b.
einfach nur intakt zu bleiben) als interessant bzw. bedeutungsvoll
ansieht.

durch integrierte werkzeuge (lötkolben, schneidbrenner) könnte diese
maschine anfangen, sich selbst zu analysieren/zerlegen...
selbstverständlich ohne das wissen, dass sie sich gerade selbst
beschädigt (--> fehlendes bewusstsein?).

jedoch würde diese maschine durch andere sensoren registrieren, dass
das ziel, intakt zu bleiben, plötzlich gefährdet ist (vorausgesetzt,
die maschine hat nicht unglücklicherweise seine stromversorgung
gekappt :)

wenn die maschine mit hilfe ihrer integrierten sensoren keinen
äusseren einfluss ausmachen kann besteht eigentlich nur noch die
möglichkeit, dass diese gefahrensituation durch das eigene handeln
entstanden ist.

folglich speichert die maschine diese aktionen als gefährlich, um
sie in zukunft zu vermeiden (natürlich immer noch ohne begriffen
zu haben, dass sie sich selbst beschädigt hat).

beim nächsten mal würde die maschine in ihrem gedächtnis finden:
"diese aktion ist zu vermeiden".

die maschine hat weder die bedeutung dieser information begriffen,
noch hat sie verstanden, welche auswirkungen das ausführen dieser
aktion hätte. der algorithmus verhindert jedoch einen erneuten
selbstverstümmelungsversuch. allerdings könnte die maschine auch
einen separaten algorithmus starten, um die auswirkungen eines
solchen versuches zu simulieren, um zu entscheiden, ob die aktion
sinnvoll oder gefährlich (im sinne der aufgabenstellung) ist.

wenn wir unsere maschine zusätzlich beauftragen, andere maschinen
zu eliminieren, dann könnte sie mit hilfe dieses separaten
algorithmus (unterprozess) simulieren, wie sich die aktionen auf
eine andere maschine auswirken könnten. natürlich wäre dieses
programm bereits äusserst kompliziert, grundsätzlich spricht
jedoch erstmal nichts gegen eine realisierung (wenn Microsoft
mal schnell 1000 leute damit beschäftigt, könnten diese das
vielleicht in 5 oder 10 jahren schaffen....natürlich müsste man
diese maschine des öfteren per hand reanimieren, da sie
gelegentlich einem spontanen unerklärbaren tod unterliegt ;)

ich traue mich nun gar nicht, zu fragen, inwiefern sich das
bewusstsein der maschine von unserem unterscheidet (von der
komplexität einmal abgesehen).

was ich nur wissen möchte ist, wie DU als mensch feststellen willst,
ob eine derartige (u.U. noch sehr viel umfangreichere) maschine
intelligent ist bzw. ein bewusstsein hat, oder nicht. daher auch
die überschrift dieses threads ("Intelligenz vs. scheinbare
Intelligenz").


j3rky

Gerke Preussner

unread,
Apr 18, 2000, 3:00:00 AM4/18/00
to
>>>>> im rahmen eines funk-LAN projektes wurde an unserem fachbereich
>>>>> kürzlich ein programm geschrieben, dass es einzelnen, willkürlich
>>>>> gewählten geräten ermöglicht, sich spontan zu vernetzen.
>>>>> (selbstverständlich werden vorhandene kommunikationsprotokolle
>>>>> etc. automatisch ermittelt und ausgewählt
>>
>> Und dann? Was hat denn das mit dem Problem der Intelligenz zu tun?

das hat insofern etwas mit intelligenz zu tun, als das sich o.g.
tote materie selbständig zu einem sinnvollen ganzen verbindet, ohne
dass das eingreifen eines intelligenten menschen nötig ist.

natürlich hat ein mensch den *intelligenten algorithmus programmiert.
das spielt aber keine rolle, denn eigentlich wollen wir ja derartige
algorithmen auch in unserem hirn finden

>>>>> natürlich ist das nur ein sehr primitives beispiel und keinesfalls
>>>>> als unterstützendes argument verwendbar.
>>
>> Warum bringst Du es dann?

um dir als nicht-techniker an einem sehr einfachen beispiel zu zeigen,
dass sich auch sehr primitive maschinen an *komplexe veränderliche
umgebungen anpassen können.

>>>>> wenn man die komplexitäts-
>>>>> ebene aber einmal ausser betracht lässt, ist durchaus erkennbar,
>>>>> dass mein gewähltes beispiel mit dem kind nicht ganz unberechtigt
>>>>> war.
>>
>> Ich kann das nicht erkennen.

dafür kann ich dir keinen vorwurf machen, denn das setzt ein wenig
verständnis für die technische seite der problematik voraus.

>> So? Maschinen können erkennen? Wäre interessant, mal so eine
>> Erkenntnis vorgeführt zu bekommen.

fingerabdruck-erkennungssystem (gibts für ein paar mark im
elektronik-versand). voice-dialing in modernen mobiltelefonen (etwas
teurer). gesicht-identifizierung in zugangskontrollen (noch viel
teurer). kfz-autopiloten, die sich z.b. am mittelstreifen orientieren
und sogar strassenschilder identifizieren (keine ahnung, was das kostet).

>> Besonders vor dem Hintergrund, daß Erkenntnis im philosophischen
>> Verständnis wohl kaum ohne Bewußtsein zu erreichen ist.

in _WELCHEM_ philosophischen verständnis? in deinem?

es gibt auch philosophen, die sind von der existenz einer seele
überzeugt. andere erzählen dir, dass man erst nach dem tod wahrhaft
lebendig ist. dann gibts welche, die fest daran glauben, dass alles
vorhersagbar ist. es gibt auch welche, die so denken wie ich. und
dann existieren noch ein paar dutzend andere sichtweisen, von denen
ich die meisten wahrscheinlich noch gar nicht kenne.

es ist also vorsicht geboten, wenn von philosophischen ansichten
sprichst.

>> Mich würde also interessieren, wo eine Maschine zu betrachten ist,
>> die Bewußtsein besitzt.

wenn du mir eine klare definition von 'bewusstsein' gibts, dann kann
ich dir diese frage vielleicht beantworten.

>> Mir ist natürlich klar, daß Erkenntnis etc. im Sinne der KI mit dem,
>> was darunter in der Philosophie figuriert, nicht sehr viel zu
>> schaffen hat.

da irrst du dich gewaltig

>> Doch so ist das eben: wenn ich einfach sage, das und das sei
>> Erkenntnis, so fällt es mir am Ende auch nicht schwer, noch dem
>> letzten Fliegenschiß an der Fensterscheibe ein solches Vermögen
>> zu unterstellen.

das ist durchaus möglich und hängt in letzter instanz von deiner
definition ab

>> Und ganz nebenbei: solange die KI nicht in der Lage ist
>> vorzuführen, daß eine vorgeblich "erkennende" Maschine genau das
>> kann, was man beim Menschen unter Erkennen versteht,

was genau versteht man denn beim menschen unter erkennen?

erzähl mir jetzt bitte nicht, dass das was mit bewusstsein zu tun
hat, sonst drehen wir uns im kreis. ausserdem kannst du in keinster
weise wissen, ob ICH genauso funktioniere wie DU. was du als
bewusstsein empfindest kann sich bei mir ganz anders darstellen.

>> hat sie sich ganz einfach an diesem Maßstab
>> auszurichten. Tut sie das nicht, ist sie nicht weit vom Nonsense
>> weg, so, wie jener Idiot, der meint, Pferde könnten rechnen, nur
>> weil eines im Zirkus fünfmal trampelt, wenn ihm zugerufen wird
>> "wieviel ist zwei plus drei?".

wer zählen kann muss nicht automatisch rechnen können

>> Im Ernst? Hast Du zu diesem "Gebiet" schon mal was von Kant
>> gelesen? Oder von Brentano, oder von Husserl? Die sind alle lange
>> tot - aber wie nehmen sich Deine "phantastischen Fortschritte"
>> gegen deren Bemühungen um's Verständnis des Verstehens aus?

definiere 'erkennen'

ich glaube langsam, dass dein erkenntnisbegriff entscheidend von
meinem abweicht.

>>>>> im gegensatz zu 'erkennen' und 'alternativen wählen' ist der
>>>>> begriff 'verstand' äusserst unscharf.
>>
>> Wie kommst Du darauf? Wie wär's mit einem kleinen Ausflug in die
>> KdrV? Dort wirst Du sehen, wie's um's äußerst Unscharfe tatsächlich
>> steht. Diese Gruppe hier heißt noch immer sci.phil... - Es kann ja
>> wohl nicht sein, daß wir hier daherreden wie Max und Emil in der
>> kleinen Kneipe in unserer Strasse, oder? - Und dabei will ich
>> keineswegs sagen, daß ich etwa Kants Begriff des Verstandes absolut
>> setzen wollte. Aber ganz so, wie Du die Sache hier darstellst, ist
>> es ja nun tatsächlich nicht.

dann erkläre mir bitte mal, wie die sache _tatsächlich_ ist.

das würde dann möglicherweise auch meine anfängliche frage beantworten.

>> Tüt Tüt. Willkommen im Morsezeitalter.

?

>> Nein. Das Kleinkind sieht sich mit Sprachspielen konfrontiert, deren
>> Bedeutung sich ihm über den Gebrauch erschließt. Einfach dadurch,
>> daß es "mitspielt".

hast du pädagogik studiert?

>> Nochmals: tatsächlich erzählt den Kindern niemand irgendeinen Stuß von
>> möglichen Bedeutungen des Wortes Topf.

träumst du? das habe ich nie behauptet.

wenn die mutter 'topf' sagt und dabei auf den topf schaut, dann ergibt
sich die bedeutung für das kind schon dadurch. wenn das kind nie diese
verbindung zwischen dem gegenstand topf und dessen bezeichnung 'topf'
erlernt, dann wird es niemals wissen, was mit "geh auf's töppfchen"
gemeint ist.

>> Wenn Du das im Ernst glaubst oder es nicht besser weißt, wäre es
>> sinnvoll, daß Du Deine Nase mal in ein paar diesbezüglich relevante
>> (sprach-)philosophische und/oder linguistische Abhandlungen steckst.

ich glaube es wäre sinnvoll, wenn du deine nase mal ein wenig in
abhandlungen über erziehung und lernprozesse beim menschen steckst.

ansatzweise lernt man sowas eigentlich schon in der schule (oder
etwa nur auf dem gymnasium?)

>> Oder darüber schweigst, wie Wittgenstein im Tractatus anrät (obwohl
>> der Zusammenhang dort ein wenig anders gelagert ist, wie ich gerne
>> eingestehe).

>> [....und so weiter und sofort...]

ich erkenne in deinen messages ein gehöriges potential an unbegründeter
agressivität und intolleranz und habe deshalb entschieden, die
beantwortung deiner fragen für unbestimmte zeit zu verschieben.

wenn du dich ein wenig beruhigt hast und wir uns wieder auf einem
freundschaftlichen niveau unterhalten können, dann bin ich gerne
bereit, die diskussion fortzusetzen.


mfg

j3rky

Uwe Flehmig

unread,
Apr 18, 2000, 3:00:00 AM4/18/00
to
Hallo Arne,

noc...@my-deja.com schrieb:

> In article <38FA139A...@bluewin.de>,
> Uwe Flehmig <uwe.f...@bluewin.de> wrote:
>
> > noc...@my-deja.com schrieb:
>

> [...]


>
> > Das ist nicht die Frage. Der Ansatz der Kritik ist ja ein ganz
> > anderer: denn es wird behauptet, so etwas wie maschinelle Intelligenz
> > sei prinzipiell möglich. Und meines Wissens steht bisher noch das
> > überzeugende Argument dafür aus, daß man sich mit einer solchen - aus
> > meiner Sicht doch reichlich schwachsinnigen Annahme - überhaupt
> > beschäftigen sollte.
>
> Inwiefern hat deine Behauptung, es sei prinzipiell unmöglich (bzw.
> schwachsinnig sich damit zu beschäftigen) mehr Wahrheitswert als die
> Behauptung der KI, es _sollte_ prinzipiell möglich sein? Du darfst das
> von mir aus gerne behaupten, aber du solltest schon ein paar Argumente
> bringen. Und nicht nur in einem fort darauf verweisen, daß es die KI
> bisher ja nicht geschafft hat.

Das habe ich aber gar nicht getan: Sondern der obere Abschnitt war ja der
erste Argumentationsschritt: bis zum heutigen Zeitpunkt ist Intelligenz -
da können wir vielleicht d'accord gehen - Lebewesen vorbehalten. Es gibt
bisher überhaupt keinen Anhaltspunkt dafür, daß man so etwas schaffen (also
herstellen, kreieren) könnte. Meiner Meinung nach hängt das u.a. damit
zusammen, daß intelligente Leistungen an Lebewesen diagnostiziert werden
können, die über einen Körper und Bewußtsein verfügen. Das zumindest ist
der status quo unserer Erkenntnis. Und daraus folgt, daß, um künstliche
Intelligenz "machen" zu können, entweder Körper und Bewußtsein in der Form
einer Person zusammengebracht werden müßten oder etwas adäquates neu
kreiert werden müßte. Meinst Du im Ernst, das ließe sich bewerkstelligen?
Im ersten Fall würden wir lediglich die Natur kopieren (was ich mir schon
reichlich schwer vorstelle), im zweiten Fall würde es auf das Ansinnen
hinauslaufen, aus Unbelebtem etwas hervorzubringen, was aller Erfahrung
nach nur Belebtem gegeben ist. - Und wie, bitte schön, sollte denn das
vonstatten gehen? Noch dazu unter der Prämisse, daß dabei entweder
Bewußtsein resultieren müßte oder adäquater Ersatz hermüßte? Und das vor
dem Hintergrund, daß niemand zu sagen weiß, was denn nun Bewußtsein genau
ist.
In der Bewußtseinsphilosophie ist es ein alter Hut, daß man hinter die
Struktur des Zugrundeliegenden, nämlich des Selbstbewußtseins, nicht kommen
kann, weil man sich dabei nämlich entweder in einen Zirkel begibt oder
eingestehen muß, daß es wohl präreflexiv verfaßt ist. Und das bedeutet, daß
wir im Prinzip nie wissen werden, *was* denn Selbstbewußtsein im
Eigentlichen ist. Wir wissen nur, *daß* es ist und *wie* es ist, sich im
Bewußtsein seiner selbst zu befinden. Und wir diagnostizieren das bei
anderen Personen, indem wir sie über Bewußtseinsakte identifizieren (wozu
sie einen Körper benötigen) und anhand bestimmter Reaktionen von Alter Ego
ablesen können, daß sie einen ähnlichen Weltbezug haben wie wir (z.B. im
Rahmen kommunikativer Akte, im Rahmen von Sprachspielen etc.).
Wie nun also soll einem Unbelebten - einer Maschine - Bewußtsein
implantiert werden? Denn wenn Intelligenz nicht von Erkenntnisfähigkeit zu
trennen ist, so kann man sie auch nicht von Bewußtsein trennen; und zwar,
weil Erkenntnis Reflexion voraussetzt, die wiederum zirkelfrei nur über das
Zusammenspiel von präreflexivem Cogito und Objektbewußtsein dargestellt
werden kann. Und mithin ist die conditio sine qua non von Intelligenz
Bewußtsein. Somit wäre also zu zeigen, wie Maschinen Bewußtsein haben
können - und das halte ich solange für unlösbar, wie wir noch nicht einmal
wissen, wie unser eigenes Bewußtsein funktioniert.

> Ein mMn gutes Argument für die Beschäftigung mit KI ist der Mensch
> selbst. Der - da wirst du wohl zustimmen - Intelligent ist, sich aber
> allem Anschein nach auch aus etwas Unintelligentem (eine Anhäufung von
> Zellen vor langer langer Zeit) entwickelt hat.

Die waren aber zumindest mal lebendig. Und nun wäre zu klären, was Leben
bedeutet, und dabei dürften wir auf ähnliche Probleme stoßen wie in der
Frage, was denn genau Bewußtsein sei. - Es steht doch lediglich außer
Frage, daß wir - also die Menschen - welches haben; und vermutlich haben es
auch hochentwickelte Tiere (wenngleich ausschließlich präreflexiv). Dieses
aber "nachbilden" zu wollen ist doch zumindest solange Nonsense, wie gar
nicht feststeht, was es denn genau ist und wie es funktioniert, oder?

> > Das Wort *künstliche* Intelligenz meint ja bereits, daß es sich dabei
> > um etwas Geschaffenes handeln muß. Und wie nun bitteschön soll denn
> > etwas geschaffen werden können, wenn man noch nicht einmal
> > hinreichend versteht, wie es um das "Vorbild", also die menschliche
> > Intelligenz, bestellt ist.
>
> Interressiert es dich nicht, wie es um das "Vorbild" bestellt ist?

Aber freilich interessiert mich das. Und Du kannst versichert sein, daß ich
auch ein wenig darüber Bescheid weiß. Nur mündet dieses rudimentäre Wissen
bei mir nicht gleich in die Illusion, ich könnte das dann eben mal schnell
einer tumben Maschine implantieren.

> Eine
> klassische Methode das herauszufinden ist zu versuchen, seine
> Wirkungsweise auf anderem Wege nachzuahmen.

Dieser Versuch ist - mit Verlaub - einem mechanistischen Weltbild
geschuldet. Ich darf in diesem Zusammenhang daran erinnern, daß man sich zu
Zeiten des Beginns der technischen Revolution an der Phantasie berauschte,
der Mensch sei nichts weiter als eine komplexe Maschine, die man nach
hinreichender Kenntnis seiner Funktionsweise (i.S. der Mechanik) geradezu
mühelos nachbauen könne. Heute wissen wir, daß das ein Irrglaube war - und
als solcher wird sich meiner Meinung nach auch der KI-Versuch entpuppen,
nicht zuletzt deshalb, weil es seinen Vertretern an dialektischen Vermögen
gebricht. Letztlich sitzen sie alle miteinander einer ziemlich simplen
Abbildungstheorie auf, die sich schon dort entlarvt, wo nicht gesehen wird,
daß die Erkenntnis von Bewußtseinsprozessen ja immer nur mit Bewußtsein zu
haben ist ...

> > Wo - nur mal so zum Beispiel - wäre denn die Verifikationsgrundlage
> > einer eventuellen Behauptung, irgendeine Maschine sei intelligent,
> > wenn wir uns die Kriterien (noch) gar nicht zu entwickeln vermögen,
> > die eine solche Verifikation zu stützen hätten.
>
> Mit diesem Satz lieferst du ein überzeugendes Argument, warum man nicht
> davon ausgehen sollte, daß maschinelle Intelligenz prinzipiell
> unmöglich sei.

So, das ist mir gar nicht aufgefallen.

> > Es bliebe uns doch im Moment gar nichts anderes als die
> > Beobachtung, oder?
>
> Daher wohl das Subject diese Threads, hmm?

Dagegen habe ich ja auch gar nicht einzuwenden gehabt. Der
Argumentationsgang bezog sich auf Deine Bemerkung, daß es töricht sei, sich
nur auf die Beobachtung zu verlassen, daß es noch keine intelligente
Maschine gebe. Ich frage also nochmal, nachdem ich versucht habe, mein
Argument zu präzisieren: worauf ginge eine Veri- oder Falsifikation, wenn
nicht auf Beobachtbares, da uns doch im Moment alle anderen Mittel fehlen?

> > > Du behauptest, "Verstehen" hängt insbesondere davon ab,
> > > Informationen in Kontexte zu setzen. OK, sehe ich auch so. Aber
> > > gibt es einen Grund, warum eine entsprechend programmierte Maschine
> > > das nicht können sollte?
>
> > Aber natürlich gibt es den: dazu müßte eine Maschine bereits
> > *verstehen* können. Denn ohne Verstehen des Kontextes gibt es doch
> > keine Chance, irgendwelche Informationen den entsprechenden Kontexten
> > zuzuordnen.
>
> Du widersprichst dir anscheinend. "Verstehen hängt davon ab,
> Informationen in Kontext zu setzen" und "Ohne Verstehen kann man keine
> Informationen in Kontext setzen". Laut deiner Begründung können dann
> auch Menschen nicht verstehen: Zu einem bestimmten Zeitpunkt (sagen wir
> mal kurz nach der Zeugung) verstehen sie offensichtlich nicht, zu einem
> anderem Zeitpunkt (erwachsen) können sie es aber doch, mit einem
> kontinuierlichem Entwicklungsprozess dazwischen. Gibt es deiner Ansicht
> nach einen Moment, in dem die Fähigkeit zu Verstehen "magisch" von
> außen injiziert wird?

Magisch? Was soll denn das? Sind wir hier beim Potlatsch oder in der
Kirche? - Schon mal was von Sozialisation gehört? Du weißt doch so gut wie
ich, daß - um mal ein gängigeres Beispiel zu strapazieren - im
Sozialisationsprozess z.B. Begriffe verwendet werden, die noch gar nicht
verstanden sind. Komischerweise werden sie trotzdem richtig verwendet. Und
woher kommt das? Weil Spracherwerb nicht so funktioniert, wie sich daß am
imaginierten Reißbrett der KI ausgemalt wird. Da wäre dann Wittgenstein
z.B. eine gute Adresse (Aber ach, der hat sich ja keiner glasklaren wiss.
Methodik bedient und wird deshalb auch geflissentlich ignoriert!).
Man könnte übrigens auch andere Sprachphilosophen oder Linguisten
konsultieren. Darüber weiß man nämlich eine ganze Menge. Doch da gehen ja
schon die Schwierigkeiten für die maschinelle Intelligenz los: Wie wäre
denn das, würde man Maschinen so "abrichten", wie das Wittgenstein im Falle
der Initiierung in's Sprachspiel vorführt? Ginge das überhaupt? Wohl
schwerlich! Denn der Unterschied besteht ganz einfach darin, daß etwa ein
Kind *lernt*. Aber offenkundig ist dieses Lernen etwas ganz anderes als
jenes, was man neudeutsch nun auch Maschinen unterstellt.
Mit anderen Worten: "Verstehen"-Lernen geschieht beim Menschen im tätigen
Vollzug kommunikativer Akte. Und dabei werden gleichermaßen die
Voraussetzungen dafür geschaffen, Neues zu verstehen wie auch bereits
Bekanntes zu reflektieren und auf seine Bedeutsamkeit hin abzuklopfen. Da,
wo Du einen Widerspruch diagnostizierst, ist also gar keiner, sondern
lediglich das dialektische Spiel im Akt des Verstehens. Etwas verstehen
setzt Verständnis voraus. Der Mensch nun ist disponiert, zu verstehen,
weshalb er es im tätigen Vollzug zu praktizieren imstande ist. Wo das von
Maschinen behauptet wird, liegt meiner bescheidenen Ansicht nach viel eher
der uralte magisch inspirierte Glaube vor, durch die bloße und letztlich
tumbe Iterierung der Formel würde sich das Heil schon einstellen. - Wer
also argumentiert in diesem Zusammenhang theologisch? Letztlich steht
hinter dem ganzen Wahn doch bloß ein Glaube, denn tatsächlich hat die KI
viel mehr nicht vorzuweisen.

> > > Mir scheint es allerdings auch so, daß du dich mit dem
> > > gegenwärtigen Stand der KI nicht sonderlich gut auskennst
> > > (vielleicht irre ich mich da auch!).
> >
> > Würdest Du eine Currywurst aus einer Bude essen, von der Du weißt,
> > daß die vielleicht ganz gute Pommes machen, ihr Fleisch aber aus der
> > Abdeckerei beziehen? - Und wie, wenn Du nun ganz zufälligerweise
> > keine Pommes magst?
>
> Schlechte Analogie. Besser: Würdest du Wittgenstein lesen wollen, wenn
> du von der (vielleicht falschen) Annnahme ausgehst, daß er nicht viel
> von wissenschaftlicher Methodik hielt, und von daher auch kaum dazu in
> der Lage war (für dich) wertvolles Wissen zu finden?

Mich hat schon immer fasziniert, woher die Hybris im Urteilen über Gedanken
rührt, die man selbst gar nicht kennt.

> Ich verlange nicht von dir, daß du dich intensiv mit KI beschäftigen
> sollst. Aber wenn du ernst genommen werden möchtest, solltest du etwas
> vorsichtiger formulieren.

Das gebe ich allerdings auch gern zurück. Bisher habe ich außer Plattitüden
noch nichts Substantielles zu meinen Entgegnungen gehört. Und eigentlich
gebietet es ja bereits der Anstand, daß jemand, der etwas stark machen
will, was es nachweislich (noch) gar nicht gibt, wenigstens die Gründe
dafür angibt, warum man an dieses Nichtexistierende zu glauben habe, oder?
- Die dumpfe Wiederholung der bloßen Behauptung, es könne prinzipiell dies
oder das geben, ist letztlich trivial. Wie man damit zugleich einen Denker
vom Range Wittgensteins der Ignoranz preisgeben kann ohne vor Scham zu
vergehen ist mir einigermaßen schleierhaft - aber vielleicht ist das ja ein
Ausblick auf das, was wir von intelligenten Maschinen zu erwarten haben ...

> Jedenfalls wenn du über Bereiche sprichst,
> von denen du (implizierst du ja selbst) keinen Überblick hast.
>
> > > (Eine Beschreibung von Copycat und ähnlichen Ansätzen findet du in
> > > dem IMHO recht lesenswerten Buch: "Fluid Concepts & Creative
> > > Analogies : Computer Models of the Fundamental Mechanisms of
> > > Thought" by Douglas R. Hofstadter)
>
> > Vielen Dank für den Hinweis. Allerdings macht mich der Ausweis des
> > Autors ein wenig skeptisch. Ich gestehe aber, daß das einer
> > Idiosynkrasie geschuldet sein mag, die in der Argumentation nichts zu
> > suchen hat.
>
> Willst du mir damit sagen, daß dein emotionaler Standpunkt in der Sache
> unter Umständen deinen Blick für das Wesentliche trüben könnte?

Nun sind Idiosynkrasien keineswegs nur emotional begründet. Und so weit
möchte ich in meiner Selbstentblößung dann auch wirklich nicht gehen. Meine
Vorbehalte gegen bestimmte Gedanken Hofstadters sind tatsächlich
theoretischer Natur. Die haben allerdings einen anderen Kontext als hier
Verhandeltes; und deshalb habe ich sie idiosynkratisch genannt. - Und nur
so zum Beispiel: ich hege aus emotionalen Motiven heraus eine tiefe
Abneigung gegen Hegel (als Menschen); das hält mich aber andererseits nicht
davon ab, ihn als Theoretiker so ernst wie nur möglich zu nehmen.
Davon abgesehen habe ich mich aber inzwischen entschlossen, mir das
empfohlene Buch gelegentlich anzuschauen. Schon, weil ich prinzipiell
neugierig bin und natürlich vor allem, weil ich hoffe, dort möglichst viele
Anhaltspunkte für eine Kritik der KI-Thesen zu finden. Schau'n wir mal ...

Mit freundlichen Grüßen

Uwe

noc...@my-deja.com

unread,
Apr 18, 2000, 3:00:00 AM4/18/00
to
In article <38FBA3ED...@bluewin.de>,
Uwe Flehmig <uwe.f...@bluewin.de> wrote:

> > Schlechte Analogie. Besser: Würdest du Wittgenstein lesen wollen,
> > wenn du von der (vielleicht falschen) Annnahme ausgehst, daß er
> > nicht viel von wissenschaftlicher Methodik hielt, und von daher
> > auch kaum dazu in der Lage war (für dich) wertvolles Wissen zu
> > finden?
>
> Mich hat schon immer fasziniert, woher die Hybris im Urteilen über
> Gedanken rührt, die man selbst gar nicht kennt.

Das sagt ja genau der Richtige :-) Aber über die KI urteilen, mit aller
polemischer Kraft, ohne (1) zu wissen, was sie erreichen will, und ohne
(2) ihren aktuellen Stand zu kennen. Glaubst du nicht, daß ich auf
diese Art Mühe haben könnte, dich ernst zu nehmen?

> Wie man damit zugleich einen Denker vom Range Wittgensteins der
> Ignoranz preisgeben kann ohne vor Scham zu vergehen ist mir
> einigermaßen schleierhaft - aber vielleicht ist das ja ein
> Ausblick auf das, was wir von intelligenten Maschinen zu erwarten
> haben ...

Wie dir sicher aufgefallen ist, war das Wittgensteinbeispiel eine
Analogie zu deiner Weigerung dich mit (dem aktuellen Stand von) KI zu
befassen, obwohl du sie ständig lautstark kritisierst.

Uwe Flehmig

unread,
Apr 18, 2000, 3:00:00 AM4/18/00
to
Hallo Arne,

noc...@my-deja.com schrieb:

> In article <38FBA3ED...@bluewin.de>,


> Uwe Flehmig <uwe.f...@bluewin.de> wrote:
>
> > Wie man damit zugleich einen Denker vom Range Wittgensteins der
> > Ignoranz preisgeben kann ohne vor Scham zu vergehen ist mir
> > einigermaßen schleierhaft - aber vielleicht ist das ja ein
> > Ausblick auf das, was wir von intelligenten Maschinen zu erwarten
> > haben ...
>

> Wie dir sicher aufgefallen ist, war das Wittgensteinbeispiel eine
> Analogie zu deiner Weigerung dich mit (dem aktuellen Stand von) KI zu
> befassen, obwohl du sie ständig lautstark kritisierst.

Zuerst einmal entschuldige ich mich für die Fehlinterpretation. Mir ist
tatsächlich nicht aufgefallen, daß Du das so gemeint hattest. Ich hielt das
für eine Polemik (auch) gegen Wittgenstein, der - das ist nun vielleicht
Dir noch nicht aufgefallen - mir eigentlich sehr am Herzen liegt. Und
außerdem ist mir ein böser Fehler unterlaufen; denn ich habe diese
Fehlinterpretation wohl auch deshalb hineingelesen, weil ich bezüglich
Wittgenstein ein Problem mit einem anderen Diskussionsteilnehmer hatte,
Dich aber irrtümlich mit ihm identifiziert habe. Dafür also ausdrücklich
meine Entschuldigung.
Und zweitens finde ich, daß der Polemik nun wohl doch genug hin- und
hergegangen ist und schlage deshalb vor, entweder ernsthaft zu disputieren
oder es eben zu lassen.

Wenn Du damit einverstanden bist, möchte ich Dir eine Frage stellen, die
für mich den Kern dieses Threads berührt:
Wenn wir davon ausgehen, daß es so etwas wie künstliche Intelligenz geben
könnte, so würde mich interessieren, wie der dabei (meines Erachtens)
notwendige Erkenntnisgang auszusehen habe. Wäre das so wie beim Menschen,
also müßten wir dann einer solchen Maschine Bewußtsein zusprechen, oder ist
da auch etwas anderes vorstellbar?

Gerke Preussner hatte mir auf eine diesbezügliche Anfrage mit dem Hinweis
geantwortet, Maschinen würden ja schon heute erkennen können, z.B., ich
zitiere, "fingerabdruck-erkennungssystem (gibts für ein paar mark im


elektronik-versand). voice-dialing in modernen mobiltelefonen (etwas
teurer). gesicht-identifizierung in zugangskontrollen (noch viel
teurer). kfz-autopiloten, die sich z.b. am mittelstreifen orientieren
und sogar strassenschilder identifizieren (keine ahnung, was das kostet)".

Nun scheint mir persönlich evident, daß diese Art "Erkennung" nichts mit
Erkenntnis i.S. menschlicher Erkenntnisfähigkeit zu tun hat, denn weder
benötigen wir zur Erklärung solcher Phänomene etwas von der Art
menschlichen Bewußtseins, noch Begriffe, noch Vorstellungen und schon gar
nicht sprachliche Strukturen, ohne die das meiste an menschlicher
Erkenntnisleistung nun mal nicht zu funktionieren scheint (freilich nicht
alles, aber das ist eine ganz andere Baustelle).
Es geht mir ja prinzipiell nicht darum, die Leistungsfähigkeit der sog.
künstlichen Intelligenz in Frage stellen zu wollen, sondern vielmehr darum,
die Diskussion um diesen Problembereich nicht zu sehr "verwässern" zu
lassen, weil einfach Begriffe wahllos - und manchmal für mein Gefühl auch
etwas unreflektiert - adaptiert werden. Mit anderen Worten: Maschinen kann
man doch nicht einfach - so denke ich mal - Erkenntnisfähigkeit zusprechen,
nur weil das Programm, welches sie steuert, nun zufälligerweise
"Fingerabdruck-Erkennungssystem" heißt.

Also bedürfte es vielleicht doch eines differenzierteren Blickes auf das,
was KI sein will. Und dazu wäre es meines Erachtens notwendig, daß sie
Aussagen dazu trifft, wie sie mit der menschlichen gleichzuziehen gedenkt.
Das Erkenntnisvermögen des Menschen, das wohl von niemanden hinreichend
genug verstanden wird, daß er sagen könne, es funktioniere so oder so und
nicht anders, ist von einer derartigen Universalität, daß es mir schwierig
scheint, dieses auch nur ansatzweise "nachstellen" zu können. Denn - um das
ganz klar zu sagen - es geht ja nicht darum, Spezifica menschlicher
Erkenntnisfähigkeit oder gar Fertigkeiten kognitiver Art im Ergebnis mit
maschinellen Leistungen zu vergleichen; und zwar, weil jedem bekannt ist,
daß etwa Computer schon heute schneller mathematische Ergebnisse erzielen
oder sogar das Schachspiel besser zu beherrschen scheinen. Der Punkt ist
vielmehr, daß diese Routinen selbst überhaupt keine Bedeutung für die
menschliche Erkenntnis besitzen. Denn wenn wir nach einer komplizierten
Berechnung z.B. den Computer fragen würden, was denn nun das Errechnete
*bedeutet*, so würden wir doch wohl schwerlich eine Antwort erwarten
dürfen. Wir dagegen, die viel langsameren Rechner, können u.U. sehr wohl
etwas mit dieser Frage anfangen. Und das liegt u.a. daran, daß die Auswürfe
der Maschinen für uns eben Bedeutung haben, weil wir darauf reflektieren,
sie in Kontexte setzen, schlicht: damit umgehen können. Mit ihnen handeln,
sie Zielen integrieren, bestimmten Sinnhorizonten eingliedern etc.. - Aber
was wäre denn der Sinn einer solchen Berechnung für die Maschine? Woher und
wie *weiß* sie, was sie da "macht", wenn sie Pi auf 2 Milliarden Stellen
nach dem Komma berechnet. Hat das für sie einen Sinn? Unser
erkenntnisgeleitetes Handeln ist ohne solche Konstrukte wie Sinn,
Bedeutung, Teleologie etc. doch gar nicht denk- und erklärbarbar. - Und wie
ist es im Angesicht dieser offenkundigen Differenz zwischen dem
intelligenten Handeln des Menschen und dem "Machen" der Maschine nun zu
verstehen, daß Maschinen trotzdem intelligent seien?

Ich hatte meinem ersten Diskussionspartner schon einmal gepostet, wie das
inter-legere etymologisch zu deuten sei. Es ist dabei meines Erachtens
unabdingbar, auf die eben benannten Dinge zu rekurrieren, wenn sinnvoll von
Intelligenz geredet werden soll. Und unter diesen Umständen bleibt mir
bisher schleierhaft, woher all diese - für den Menschen typischen -
Vermögen und Dispositionen in Maschinen rühren sollten. - Und es ist nun
wirklich nicht damit getan, daß man zu diesem Behuf etwa die alte
Spracherwerbstheorie des Augustin wiederbelebt, wie das hier in diesem
Thread schon geschehen ist, vor allem, wo doch inzwischen sogar in
nichtphilosophischen Kreisen Wittgensteins berühmte Widerlegung schon
ziemlich weit verbreitet ist. Zum Teil mochte mein polemischer Unterton
daherrühren, daß mich solche Argumente gelegentlich nerven; wobei ich
ausdrücklich betonen möchte, daß es für mich nicht darum geht, einfach nur
recht behalten zu wollen. Ich lasse mich gern eines besseren belehren, wenn
ich merke, daß ich falsch gedacht habe. Nur: den Stand der
sprachphilosophischen Kenntnisse das Thema Spracherwerb betreffend muß man
nun wirklich nicht mit solchen Dingen unterschreiten wie etwa dem hier:


"wenn die mutter 'topf' sagt und dabei auf den topf schaut, dann ergibt
sich die bedeutung für das kind schon dadurch. wenn das kind nie diese
verbindung zwischen dem gegenstand topf und dessen bezeichnung 'topf'
erlernt, dann wird es niemals wissen, was mit "geh auf's töppfchen" gemeint

ist". Dir brauche ich wahrscheinlich nicht zu sagen, daß sich gleich
eingangs der PU die präzise Widerlegung dieser Auffassung findet. - Ein
ganzer Haufen solcher Fehlleistungen und die gleichzeitige willentliche
Ignoranzbekundung, darüber auch nur mal nachdenken (oder -lesen) zu wollen,
hat mich wohl dann ein wenig über's Ziel hinausschießen lassen.
Nun denke ich, diese Dinge ein wenig klarer zum Ausdruck gebracht zu haben
und vielleicht kannst Du mir ja meine diesbezüglichen Fragen beantworten.
Ich meinerseits werde jedenfalls versuchen, Deinen - so Du welche hast -
auch Rede und Antwort zu stehen.

Mit freundlichen Grüßen

Uwe

noc...@my-deja.com

unread,
Apr 19, 2000, 3:00:00 AM4/19/00
to
In article <38FCB11B...@bluewin.de>,
Uwe Flehmig <uwe.f...@bluewin.de> wrote:

> noc...@my-deja.com schrieb:

> Zuerst einmal entschuldige ich mich für die Fehlinterpretation.

Akzeptiert. Ich sagte ja, emotionale Standpunkte können den Blick für
das wesentliche Trüben... ist mit auch schon oft genug passiert :-)

> Wenn Du damit einverstanden bist, möchte ich Dir eine Frage stellen,
> die für mich den Kern dieses Threads berührt:
> Wenn wir davon ausgehen, daß es so etwas wie künstliche Intelligenz
> geben könnte, so würde mich interessieren, wie der dabei (meines
> Erachtens) notwendige Erkenntnisgang auszusehen habe. Wäre das so wie
> beim Menschen, also müßten wir dann einer solchen Maschine Bewußtsein
> zusprechen, oder ist da auch etwas anderes vorstellbar?

Das Problem liegt wohl unter anderem in der allgemeingebräuchlichen
Definition des Begriffs "Verstehen", der sich scheinbar dann doch von
der philosophischen unterscheidet. MMn "versteht" im allgemeinen
Sprachgebrauch eine Entität, wenn sie den Anschein hat, zu verstehen.
Man vergleicht ihr Verhalten mit dem von Entitäten, von denen wir
hinreichend sicher sind, daß sie "verstehen" (gut bekannte Menschen).
Wenn genügend Ähnlichkeit besteht, sagen wir, die Entität "versteht".
Daher sprechen z.B. Tierbesitzer ihren Haustieren oft die Fähigkeit zu
Verständis (wenn auch nur in einem begrenzten Bereich) zu. Und daher
rührt auch der Eliza Effekt (einem "simplen" Program
Verständnisfähigkeit zu zuschreiben) - dem immer wieder auch solche
Menschen anheim fallen, die es eigentlich besser wissen müßten.

Das bedeutet, daß "Verstehen" immer von dem abhängt, der darüber eine
Aussage macht. Entweder das "Selbst", daß über die eigenen
Gedankengänge reflektiert (hat das nicht Heidegger so ähnlich
formuliert?), oder aber ein externer anderer. Wenn ich das Gefühl habe,
eine andere Entität versteht (mich)... darf ich ihr dann die Fähigkeit
zu Verstehen absprechen, nur weil sie kein Mensch ist? Keine einfache
Frage... aus ethischen Überlegungen heraus würde _ich_ im Zweifel für
die potentielle Verständisfähigkeit der Entität sprechen.

Manchmal befürchte ich fast, daß einige der sehr starrköpfigen KI-
Kritiker ihre Meinung aus dem Grund so lautstark verkünden, weil sie
insgeheim Angst haben, welche indirekten (aber eventuell
folgenschweren) Auswirkungen die akzeptierte Existenz einer "bewußten"
KI auf unser Weltbild, insbesondere auf unsere Moralvorstellung haben
könnte. Vermutlich haben würde.

Aber zu deiner eigentlichen Frage: "Kann es Maschinen geben, die
anscheinlich verstehen, aber kein Bewußtsein besitzen" (Richtig?)
MMn ja. Ich sage nur: Der Eliza Effekt. Aber, und darauf kommt es mir
an: Jede Maschine, die anscheinlich versteht, aber kein Bewußtsein
besitzt, wird sich (früher oder später!) als solche entlarven lassen.

Ich bin tatsächlich der Auffassung (keine große Überraschun, hmm?), daß
es warscheinlich möglich sein müßte (hinreichend leistungsfähige
Hardware und hinreichend Zeit, die Software zu entwickeln bzw. sich
selbst entwickeln zu lassen vorrausgesetzt natürlich), einem
Digitalcomputer Bewußtsein "beizubringen". Ich bin mir nicht 100%
sicher - es ist nur eine starke Vermutung, gebildet aus meinem Wissen
über die Welt.

Dieses Programm würde sich mit Sicherheit in einigen wesentlichen
Dingen von dem unterschieden, was momentan als "KI" verkauft wird.

Aber, das ist natürlich kein Grund, warum es so etwas pinzipiell nicht
geben könnte. Zwei Gründe, die mich dazu bringen, zu vermuten, daß es
prinzipiell möglich sein sollte:

(1) Der Mensch kann als biologische Maschine beschrieben werden, die
sich in einem kontinuierlichem Prozess aus nicht-verstehenden
biologischen Maschinen entwickelt hat. Natürlich spielen für
das "Verstehen" Umwelt, Sprache, Kultur etc. eine Rolle, aber das ist
letztendlich nichts, was bei einer Maschine nicht auch dieselbe Rolle
spielen könnte! (bzw. funktional ersetzt werden könnte). Ich gehe in
dieser Beziehung mit den Ansichten von Richard Dawkins konform.

(2) Ich habe "Consciousness Explained" von Daniel C Dennett gelesen,
und die Kernaussage seines Modells für Bewußtsein _verstanden_. Bilde
ich mir wenigstens ein. Es stimmt in erstaunlichem Maße mit dem
überein, was ich durch Introspektion über meine persönlichen
Denkvorgänge erfahren habe. Dennetts These ist (aufs gröbste
verstümmelt), daß Bewußtsein letztendlich nur "eingebildet" ist, ein
emergentes Phänomen der Zusammenarbeit vieler unbewußter Teilsysteme
darstellt. Hmm... ich fürchte, dieser Satz ist warscheinlich sehr
leicht mißzuverstehen.
Jedenfalls habe jetzt ich eine intuitive Vorstellung davon entwickelt,
wie das "selbst erfahrene Bewußtsein" ein "Effekt" einer bestimmten Art
und Weise von geordneter Informationsverarbeitung sein könnte. Ohne
jeden metaphysischen Pipapo, und ohne Penroses Quantenphänomene (die
ich nicht ausschliessen will, aber für rein spekulativ halte).
Als Folge vermute ich ganz stark, daß eine Entität, die sich _genau_
so wie ein Mensch verhält (d.h. den härtesten Tests standhält, die man
sich vorstellen kann), auch ein ähnliches "Selbstgefühl" im Kopf haben
müßte (da will ich aber nicht wirklich ausführlich argumentieren,
Dennett kann das viel besser).

Was ist notwendig für "Bewußtsein" in einer qualitativ ähnlichen Art
(ein sicherlich dehnbarer Begriff) zu dem, was wir in uns selbst
erfahren?
Ich vermute unter anderem ein (mehr oder weniger) detailliertes Modell
der eigenen Denkvorgänge zu besitzen, welches parallel zu den
eigentlichen Denkvorgängen "abläuft", und diese "beobachtet"
(Parallelen identifiziert, Vergleiche anstellt). Vielleicht auch viele
geschachtelte Stufen dieses gegenseitigen Beobachtens. Das aber ist
kaum mit den uns heute zur Verfügung stehenden Mitteln zu erreichen,
jedenfalls nicht mit einer Maschine, die dann auch noch Zeit und Platz
dafür hat, etwas "sinnvolles" zu leisten :-)
Es könnte da durchaus eine gewisse minimale Komplexitätsschwelle
geben, unter der so etwas nicht modellierbar ist.

[...]


> Nun scheint mir persönlich evident, daß diese Art "Erkennung" nichts
> mit Erkenntnis i.S. menschlicher Erkenntnisfähigkeit zu tun hat, denn
> weder benötigen wir zur Erklärung solcher Phänomene etwas von der Art
> menschlichen Bewußtseins, noch Begriffe, noch Vorstellungen und schon
> gar nicht sprachliche Strukturen, ohne die das meiste an menschlicher

> Erkenntnisleistung nun mal nicht zu funktionieren scheint.

Da stimme ich dir zu, aber das habe ich ja schon im ersten Posting
getan.

Ich habe eben über Maschinen mit "Bewußtsein" geredet. Man darf aber
nicht vergessen, daß dies im Grunde gar nicht das eigentliche Ziel der
KI ist (!) Die Zielstellung, so wie ich sie verstehe, ist, die von
außen beobachtbaren kognitiven Fähigkeiten von Menschen ganz oder
teilweise nachzubilden, mit den Ziel, irgendwann einmal etwas noch
Leistungsfähigeres zu entwickeln. Wie du siehst geht es eigentlich gar
nicht darum, ob die Maschine nun Bewußtsein hat oder nicht, sondern ob
ihre Leistung für uns von Nutzem sein wird. Dem Großteil der KI ist es
wohl egal, was die Maschine "denkt" (mir nicht :-), solange das was sie
ausspuckt für _uns_ Bedeutung hat.

> Das Erkenntnisvermögen des Menschen, das wohl von niemanden
> hinreichend genug verstanden wird, daß er sagen könne, es
> funktioniere so oder so und nicht anders, ist von einer derartigen
> Universalität, daß es mir schwierig scheint, dieses auch nur
> ansatzweise "nachstellen" zu können.

Hmm. Du hast keine große Erfahrung mit Software-Entwicklung (bei
komplexen Problemstellungen), oder? Ich sage das nur, weil es meiner
Erfahrung nach für Laien extrem schwierig ist, ein intuitives Gefühl
davon zu bekommen, was dort möglich ist und was nicht.

> Denn - um das ganz klar zu sagen - es geht ja nicht darum, Spezifica
> menschlicher Erkenntnisfähigkeit oder gar Fertigkeiten kognitiver Art
> im Ergebnis mit maschinellen Leistungen zu vergleichen;

Aber genau darum geht es der modernen KI im Grunde hauptsächlich.

> und zwar,
> weil jedem bekannt ist, daß etwa Computer schon heute schneller
> mathematische Ergebnisse erzielen oder sogar das Schachspiel besser
> zu beherrschen scheinen. Der Punkt ist vielmehr, daß diese Routinen
> selbst überhaupt keine Bedeutung für die menschliche Erkenntnis
> besitzen. Denn wenn wir nach einer komplizierten Berechnung z.B. den
> Computer fragen würden, was denn nun das Errechnete *bedeutet*, so
> würden wir doch wohl schwerlich eine Antwort erwarten dürfen.

Da möchte ich ganz leicht einhaken: Für _den Computer_ bedeuten die
Ergebnisse vielleicht nichts (für die heutigen wenigstens), aber für
_uns_ haben sie in der Regel schon Bedeutung!
Wenn du so willst kannst du die Rechner damit als "Erweiterung"
unserer kognitiven Fähigkeiten betrachten, als "externe Auslagerung"
kognitiver Prozesse (ähnlich den Metaphern von McLuhan). Was dann zu
ganz anderen interessanten Diskussionsthemen führt :-)

> Wir dagegen, die viel langsameren Rechner, können u.U. sehr wohl
> etwas mit dieser Frage anfangen.

Was u.A. auch daran liegen mag, daß wir in Wirklichkeit die viel
schnelleren Rechner sind. Die gesammte Rechenleistung aller Computer
auf der Welt ist immer noch gering relativ zur
theoretischen "Rechenleistung" _eines_ menschlichen Gehirns. Wenn die
gegenwärtigen technologischen Trends anhalten, könnte sich das aber in
30 Jahren oder so ändern. Kurzum: Ich glaube kaum, daß man die "real
gezeigte Leistung" eines menschlichen Gehirns auf Hardware simulieren
kann, welche effektiv deutlich weniger Leistungsfähig ist als das
Gehirn.

Uwe Flehmig

unread,
Apr 20, 2000, 3:00:00 AM4/20/00
to
Hallo Arne,

noc...@my-deja.com schrieb:

> > Wenn wir davon ausgehen, daß es so etwas wie künstliche Intelligenz
> > geben könnte, so würde mich interessieren, wie der dabei (meines
> > Erachtens) notwendige Erkenntnisgang auszusehen habe. Wäre das so wie
> > beim Menschen, also müßten wir dann einer solchen Maschine Bewußtsein
> > zusprechen, oder ist da auch etwas anderes vorstellbar?
>
> Das Problem liegt wohl unter anderem in der allgemeingebräuchlichen
> Definition des Begriffs "Verstehen", der sich scheinbar dann doch von
> der philosophischen unterscheidet. MMn "versteht" im allgemeinen
> Sprachgebrauch eine Entität, wenn sie den Anschein hat, zu verstehen.

Dies ist - wie Du vielleicht zugeben kannst - dann allerdings eine arg
"weiche" Definition. Beispiel: Im Zirkus wird einem Pferd zugerufen
"wieviel ist 2 mal 2?" und es stampft viermal mit dem rechten Vorderhuf.
Hat es dann verstanden?
Dazu kommt aber noch ein anderes: Menschliches Verstehen ist ja überhaupt
nicht an spezifische Inhalte gebunden. Es ist nämlich vollkommen beliebig,
was Du Alter Ego an Fragen, Theorien, Offerten o.ä. anbietest. Prinzipiell
- und unter der Voraussetzung, daß die entsprechenden Sätze *richtig*
formuliert sind - kann A.E. alles verstehen, egal, ob es sich nun um ein
math. Problem, eine Bitte, eine Aufforderung, eine Drohung, ein Gedicht
oder sogar um eine non-verbale Geste handelt (wobei da natürlich keine
Satzstruktur vorliegt, sondern ein Verhalten, das vom Gegenüber in die Form
eines Satzes übersetzt wird).
M.a.W.: Es ist eigentlich gar kein Kriterium, wenn es "den Anschein hat",
eine Entität verstünde irgendetwas. Wir können uns dessen nämlich nur
sicher sein (also auf einen speziellen Fall bezogen), wenn wir zugleich die
Unterstellung implizieren, diese Entität verstünde daneben auch noch dies
oder das. Dies zeigt sich natürlich im Falle eines mißlungenen
Kommunikationsaktes: Versteht A.E. nämlich tatsächlich nicht, was ich mit
dem oder dem gemeint habe, wird er mir das signalisieren. Und das heißt: er
versteht sogar (etwas), wenn er nicht versteht; und zwar, daß "ich (A.E.)
nicht weiß, was du (sein Kommunikationspartner) gemeint hast". Bei "echtem"
Verstehen folgt daraus eine Reformulierung der These (oder was auch immer)
unter anderen Vorzeichen. So etwas nennt man Argumentation. Und darin (also
in der Reformulierung) ist impliziert, daß ich unterstelle, daß A.E. trotz
des ersten gescheiterten Versuchs verstehen kann. - Wie so etwas
funktioniert kann man bei Toulmin nachlesen.

> Man vergleicht ihr Verhalten mit dem von Entitäten, von denen wir
> hinreichend sicher sind, daß sie "verstehen" (gut bekannte Menschen).
> Wenn genügend Ähnlichkeit besteht, sagen wir, die Entität "versteht".

Schon. Ich verstehe, was Du sagen willst. Der Fehlschluß liegt aber m.E.
darin, daß Du bei Deinem Verifikationsversuch darauf angewiesen bist, das
Spektrum der Möglichkeiten von Verstehen zu beschränken. - Man könnte ja
eine Maschine so programmieren, daß, wenn ich ihr eingebe "wieviel ist '2
mal 2'?" (wobei die Ziffern beliebig sein könnten), sie stets die richtige
Antwort ausgibt. Nach Deiner Version kann sie dann verstehen. Dagegen müßte
ich einem Menschen, der diese Frage nicht versteht, Verstehen absprechen. -
So funktioniert das doch aber gar nicht: sondern wenn ich merke, daß einer
nicht rechnen, Verkehrsschilder lesen, Gedichte interpretieren usw. kann,
werde ich entweder
- versuchen, ihm dies - z.B. via Argumente - verständlich zu machen. Und
siehe da: plötzlich kann er es. Und warum? Weil er prinzipiell verstehen
kann. Weil er Argumenten zugänglich ist. Oder, wenn das auch nicht
funktioniert, werde ich
- prüfen, ob er überhaupt verstehen kann, und zwar dadurch, daß ich ein
ganz anderes Feld wähle und dann darüber mit ihm kommuniziere. Erst wenn
dieser Versuch (und weitere) auch scheitert, bin ich berechtigt, ihm
Verstehen-Können abzusprechen.
Und während nun Möglichkeit eins bei Maschinen unter gewissen Bedingungen
sogar funktionieren könnte (durch Formalisierung der Argumente und deren
Implantierung in's Programm), sehe ich keine Möglichkeit, bei denen auf
Möglichkeit 2 zu rekurrieren. - Derweil funktioniert menschliches Verstehen
natürlich so. Denn es gibt ja lebenspraktisch gesehen immer wieder mal
Fälle, in denen sich zeigt, daß bei einem gewählten Paradigma X A.E.
partout nicht versteht (z.B. wegen eines zu großen Kompetenzgefälles
zwischen den Kommunikanten); doch daraus folgt ja dann nicht, daß der
Andere schließt, A.E. könne nun gar nicht verstehen, sondern in der Regel
zeigt sich, daß sein Verstehen-Können in anderen Bereichen sehr wohl
funktioniert.
Daraus ist - unter Beachtung der obigen Einlassungen - der Schluß zu
ziehen, daß Verstehen etwas ist, daß prinzipiell auf alle Gegenstände
kommunikativer Akte bezogen werden kann. Demnach wäre dann aber ein
Analogieschluß Deiner Facon nur zulässig, wenn er sich genauso wie beim
Menschen grundsätzlich auf alle Bereiche des Kommunizierbaren erstreckte.
Und diese Prüfung an einer Maschine, die angeblich verstehen kann,
durchzuführen, würde wohl sehr schnell zu einem Ende kommen, oder meinst Du
nicht?

> Daher sprechen z.B. Tierbesitzer ihren Haustieren oft die Fähigkeit zu
> Verständis (wenn auch nur in einem begrenzten Bereich) zu. Und daher
> rührt auch der Eliza Effekt (einem "simplen" Program
> Verständnisfähigkeit zu zuschreiben) - dem immer wieder auch solche
> Menschen anheim fallen, die es eigentlich besser wissen müßten.

Eben!

> Das bedeutet, daß "Verstehen" immer von dem abhängt, der darüber eine
> Aussage macht.

Nein! Wir können nicht privat über Verstehen befinden. Siehe dazu das
Privatsprachenargument Wittgensteins.

> Entweder das "Selbst", daß über die eigenen
> Gedankengänge reflektiert (hat das nicht Heidegger so ähnlich
> formuliert?),

Ob Du es nun glaubst oder nicht, aber wenn Du reflektierst, kannst Du
keiner privaten Regelung folgen. Und Heidegger hat z.B. in SuZ ausdrücklich
negativ über den von Dir beschriebenen Vorgang geschrieben. Eben weil das
gar nicht geht. - Soviel war dem "Meister aus Deutschland" (Safranski)
schon bekannt, dessen darfst Du versichert sein.

> oder aber ein externer anderer. Wenn ich das Gefühl habe,
> eine andere Entität versteht (mich)...

Dieses "Gefühl" kannst Du gar nicht haben, da es sich dabei zwingend um
einen Reflexionsakt handelt. Dessen Zeitigungen liegen aber nie in Form von
Gefühlen vor (worüber Du ja sogar dankbar sein solltest, weil Deine
intelligente Maschine ja ansonsten auch noch Gefühle haben müßte). Gefühle
sind Ausdrücke unmittelbaren Erlebens und können damit per se nicht als
Repräsentationen reflexiver Akte vorliegen. Das ist einfach so.

Kleiner Exkurs zum Unterschied von "Gegenständen" der Reflexion und solchen
des Gefühls:
Der Ausdruck "ich habe [genauer eigentlich: *bin*] Hunger" kann als
formalisierte Repräsentation des Bewußtseinsinhaltes, hungrig zu sein,
aufgefaßt werden. Genaugenommen geht das freilich nicht, weil solche
Zustände im Bewußtsein natürlich nicht als Sätze vorliegen (was wiederum
daran liegt, daß sie als Gewißheiten nicht falsifizierbar sind - Sätze
dagegen natürlich schon). Fest steht auf jeden Fall, daß Hungrigsein ein
präreflexiv verfaßtes Bewußtseindatum ist, bei dem ich mich nicht irren
kann. Und das ist mit "Gefühlen" prinzipiell so. Wenn sie (da-)sind, sind
sie (da) - mit Reflexion hat das rein gar nichts zu tun.
Der Sachverhalt dagegen "einer versteht mich" kann nur in Satzform im
Bewußtsein vorliegen, denn er beinhaltet einen propositionalen Teil, der
der Falsifikationsmöglichkeit unterliegt. Deshalb ist er auch immer das
Produkt eines Reflexionsaktes, und zwar von der Form "ich
glaube/weiß/mutmaße etc., daß ...".
Der Unterschied nun zwischen diesen beiden "Bewußtseinsinhalten" besteht
darin, daß letzteres ein *Wissen* ist, ersteres dagegen nicht. Gefühle weiß
man nicht, eben weil sie dann auch falsifizierbar wären, was nicht der Fall
sein kann.
Daraus folgt nun eine wichtige Implikation: wenn wir z.B. Deinen Satz "ich
habe das Gefühl, eine andere Entität versteht mich" hernehmen, so verbürgt
gerade der Umstand, daß "ein Gefühl haben" (an sich) präreflexiv ist, daß
Du es bist, der sich in obigem Satz mit "mich" identifizierst. Will sagen,
die beiden Formen der ersten Person Singularis in Deinem Satz beziehen sich
auf diesselbe Person; und zwar nur deshalb, weil Du mit Dir nicht auf
reflexive, sondern vielmehr unmittelbare Weise - eben präreflexiv - bekannt
bist. Wären Gefühle im Bewußtsein selbst reflexiv verfaßt, lägen sie also
in Form von Propositionen vor, könntest Du so etwas wie eine Identität -
ein Ich - überhaupt nicht aufbauen. Und dies wiederum bedeutete, daß
Selbstzuschreibungen von der Form "ich weiß/ahne/habe gefühlt etc., daß
..." nicht funktionieren würden; womit letztendlich auch Sprache,
Kommunikation nicht möglich wäre - und mithin natürlich auch Erkenntnis.
Sartre unterscheidet aus diesem Grunde zwischen Selbstbewußtsein und
Selbsterkenntnis. Bei ihm ist SB der präreflexive Teil, während SE in Form
von Propositionen vorliegt. In der Philosophie des Bewußtseins erstreckt
sich diese Linie von Fichte über Schelling, Brentano, Husserl bis Sartre
und seine (vorwiegend deutschen) Rezipienten einerseits, andererseits zur
vorwiegend englischsprachigen Philosophie des Geistes (Shoemaker, Chisholm,
Nagel u.a.). Einen guten Überblich und weiterführende Literatur kann Dir
z.B. das Bändchen von Manfred Frank "Selbstbewußtsein und
Selbsterkenntnis", erschienen bei Reclam, verschaffen.

> darf ich ihr dann die Fähigkeit
> zu Verstehen absprechen, nur weil sie kein Mensch ist? Keine einfache
> Frage... aus ethischen Überlegungen heraus würde _ich_ im Zweifel für
> die potentielle Verständisfähigkeit der Entität sprechen.

Ich wüßte nun freilich wirklich nicht, was hier ethische Fragen für eine
Rolle spielen sollen ... - Aber egal: da die Prämisse nicht stimmt, ist der
Schluß, den Du ziehst, sowieso nicht zulässig.

> Manchmal befürchte ich fast, daß einige der sehr starrköpfigen KI-
> Kritiker ihre Meinung aus dem Grund so lautstark verkünden, weil sie
> insgeheim Angst haben, welche indirekten (aber eventuell
> folgenschweren) Auswirkungen die akzeptierte Existenz einer "bewußten"
> KI auf unser Weltbild, insbesondere auf unsere Moralvorstellung haben
> könnte. Vermutlich haben würde.

Glaube ich eigentlich weniger. Die Kritik richtet sich vorwiegend an einem
anderen aus: daß der Fetischismus, der mit Gemachtem ja heute schon im
Übermaß getrieben wird, irgendwann ein Niveau erreicht, daß die psychische
Regression der Massen in unvorstellbare Bereiche treibt. Es ist ja nicht
so, daß man Tatsachen bräuchte, wahre Sachverhalte, um bei vielen Menschen
ein bestimmtes Verhalten zu provozieren. Dazu reicht ja bereits die
Vortäuschung, die Suggestion. - Und mal unterstellt, die KI schaffte es,
irgendwann einmal klarzumachen, daß sie intelligente Maschinen vorzuweisen
habe, so fragte doch im Ernst kein Mensch danach, ob das nun stimmt oder
nicht. Die Auswürfe solcher Pseudo-Intelligenz-Monster würden mit der
gleichen gläubigen Narretei akzeptiert, mit der sich der Mob schon heute,
ob von der Werbung oder der Politik, ein A für ein O vormachen läßt. An
diesem Punkt würde ich z.B. eine ethische Reflexion für angebracht halten
und nicht in solch wirren Zusammenhängen, wie das in diesem Thread
tatsächlich ein Diskussionsteilnehmer schon tat: der nämlich die
Diskreditierung der KI-Thesen mit jener verglich, die einst "Menschen
anderer Hautfarbe/Rasse widerfuhr". Ob man sich bei der Formulierung dieser
These wohl überlegt hat, daß die Rechte derer, die ja unbestritten sind, an
solche geknüpft werden, die vorgeblich *Maschinen* einzuräumen seien?! -
Also ich weiß nicht ...

> Aber zu deiner eigentlichen Frage: "Kann es Maschinen geben, die
> anscheinlich verstehen, aber kein Bewußtsein besitzen" (Richtig?)
> MMn ja. Ich sage nur: Der Eliza Effekt. Aber, und darauf kommt es mir
> an: Jede Maschine, die anscheinlich versteht, aber kein Bewußtsein
> besitzt, wird sich (früher oder später!) als solche entlarven lassen.

Zunächst mal ist das natürlich nur eine Behauptung. Nachdem ich oben etwas
näher darauf einzugehen versucht habe, was nun "Verstehen" eigentlich alles
impliziert, wäre der Nachweis dafür natürlich noch anzutreten.

> Ich bin tatsächlich der Auffassung (keine große Überraschun, hmm?), daß
> es warscheinlich möglich sein müßte (hinreichend leistungsfähige
> Hardware und hinreichend Zeit, die Software zu entwickeln bzw. sich
> selbst entwickeln zu lassen vorrausgesetzt natürlich), einem
> Digitalcomputer Bewußtsein "beizubringen". Ich bin mir nicht 100%
> sicher - es ist nur eine starke Vermutung, gebildet aus meinem Wissen
> über die Welt.

dito.

> Dieses Programm würde sich mit Sicherheit in einigen wesentlichen
> Dingen von dem unterschieden, was momentan als "KI" verkauft wird.

Davon muß man wohl ausgehen, denn ansonsten brauchen wir das nun wahrlich
nicht weiter zu diskutieren.

> Aber, das ist natürlich kein Grund, warum es so etwas pinzipiell nicht
> geben könnte. Zwei Gründe, die mich dazu bringen, zu vermuten, daß es
> prinzipiell möglich sein sollte:
>
> (1) Der Mensch kann als biologische Maschine beschrieben werden,

Wieso? - Der Mensch *hat* zweifelsfrei Bewußtsein. Was daran ist bisher im
Paradigma der Maschine beschreibbar?

> die
> sich in einem kontinuierlichem Prozess aus nicht-verstehenden
> biologischen Maschinen entwickelt hat. Natürlich spielen für
> das "Verstehen" Umwelt, Sprache, Kultur etc. eine Rolle, aber das ist
> letztendlich nichts, was bei einer Maschine nicht auch dieselbe Rolle
> spielen könnte! (bzw. funktional ersetzt werden könnte).

Wie wolltest Du - oder Richard Dawkins - das "funktional ersetzen", was bei
Wittgenstein Sprachspiel heißt - und vor allem, was darunter, z.B. in
Hinsicht auf den Spracherwerb und die Ausbildung kognitiver Strukturen, so
alles figuriert. Wie sollte das gehen?

> Ich gehe in
> dieser Beziehung mit den Ansichten von Richard Dawkins konform.
>
> (2) Ich habe "Consciousness Explained" von Daniel C Dennett gelesen,
> und die Kernaussage seines Modells für Bewußtsein _verstanden_. Bilde
> ich mir wenigstens ein. Es stimmt in erstaunlichem Maße mit dem
> überein, was ich durch Introspektion über meine persönlichen
> Denkvorgänge erfahren habe. Dennetts These ist (aufs gröbste
> verstümmelt), daß Bewußtsein letztendlich nur "eingebildet" ist, ein
> emergentes Phänomen der Zusammenarbeit vieler unbewußter Teilsysteme
> darstellt. Hmm... ich fürchte, dieser Satz ist warscheinlich sehr
> leicht mißzuverstehen.

Ist er nicht. Diese Thesen sind mir nicht ganz unbekannt. Damit gehen ja
u.a. einige Leute hier in dieser Newsgroup haussieren. Nur, ich habe da so
meine Zweifel, u.a. logischer Natur.
Also: wenn ich diverse "unbewußte" Subsysteme über Emergenzeffekte
miteinander verkoppeln will, um letztlich zu einem wie auch immer
"eingebildeten" Bewußtsein zu kommen, so gibt es zunächst einmal zwei
fundamentale Schwierigkeiten (um hier nicht gleich von Widersprüchen oder
Sinnlosigkeit zu reden).
1. Welche Instanz verbürgt denn den Zusammenhalt der ub Subsysteme? Wie
kann etwas zusammengehalten werden, das nirgends als Ganzes präsent ist?
Und wodurch wird verbürgt, wenn nicht irgendwo die "Zentrale" sitzt, daß
alle ub Subsysteme zusammenarbeiten. M.a.W.: Selbst wenn man unterstellt,
daß diese Zusammenarbeit quasi von allein funktioniert (wie immer das
vonstatten gehen mag), so muß man sich fragen, woher dann der Eindruck von
Konsistenz rührt, der sich im (freilich nur eingebildeten) Bewußtsein
zumindest psychisch einigermaßen gesunder Menschen doch wohl vorfindet? -
Wohlgemerkt, ich rede hier ausschließlich von psychischen Phänomenen, denn
daß die Physis zentralgesteuert funktioniert, brauchen wir hier glaub' ich
nicht zu diskutieren (ansonsten müßten wir uns ja darüber unterhalten, zu
was die Guillotine nutzbar ist).
2. Der zweite Einspruch wiegt schwerer: Hast Du Dir mal die Formulierung,
Bewußtsein sei nur "eingebildet", auf der Zunge zergehen lassen? - Ich will
das hier wahrlich nicht weiter ausführen - weil's dann vielleicht für
einige lustig und für andere sarkastisch oder gar aggressiv wird -, aber
aufgrund der Tatsache, daß sich nur *etwas* etwas einbilden kann, ist nun
die Frage, was dieses "Etwas" denn bei Dennett ist ...

> Jedenfalls habe jetzt ich eine intuitive Vorstellung davon entwickelt,
> wie das "selbst erfahrene Bewußtsein" ein "Effekt" einer bestimmten Art
> und Weise von geordneter Informationsverarbeitung sein könnte.

Eben! "Geordnete Informationsverarbeitung"! Und wodurch geht die
vonstatten, wenn es doch nur ub Subsysteme gibt? - Alle Fragen offen!

> [...]


> Als Folge vermute ich ganz stark, daß eine Entität, die sich _genau_
> so wie ein Mensch verhält (d.h. den härtesten Tests standhält, die man
> sich vorstellen kann), auch ein ähnliches "Selbstgefühl" im Kopf haben
> müßte

Ja freilich. *Darin* möchte ich Dir auch nicht widersprechen. Nur: wie
kommen wir zu dieser Entität?

> (da will ich aber nicht wirklich ausführlich argumentieren,
> Dennett kann das viel besser).

Na hoffentlich!

> Was ist notwendig für "Bewußtsein" in einer qualitativ ähnlichen Art
> (ein sicherlich dehnbarer Begriff) zu dem, was wir in uns selbst
> erfahren?

Weiter oben ist dazu einiges ausgeführt.

> Ich vermute unter anderem ein (mehr oder weniger) detailliertes Modell
> der eigenen Denkvorgänge zu besitzen, welches parallel zu den
> eigentlichen Denkvorgängen "abläuft", und diese "beobachtet"
> (Parallelen identifiziert, Vergleiche anstellt).

Die Reflexion muß sich nicht verdoppeln, um über sich selbst Aufklärung zu
erlangen. Es ist einer der großen Vorteile propositionalen Wissens, daß es
den jeweiligen Reflexionsmodus bereits impliziert. Dagegen ist natürlich
unbedingt ein Zeitbewußtsein erforderlich, strukturiert nach A- und
B-Reihe, damit auf ein Reflektiertes erneut reflektiert werden kann. Im
präsentischen Reflexionsprozeß benötigen wir dazu die Retention, ansonsten
wird bereits Reflektiertes, also Wißbares, über Indices der Zeit und dem
Kontext nach erinnert.

> [...]
> > Nun scheint mir persönlich evident, daß diese Art "Erkennung" nichts
> > mit Erkenntnis i.S. menschlicher Erkenntnisfähigkeit zu tun hat, denn
> > weder benötigen wir zur Erklärung solcher Phänomene etwas von der Art
> > menschlichen Bewußtseins, noch Begriffe, noch Vorstellungen und schon
> > gar nicht sprachliche Strukturen, ohne die das meiste an menschlicher
> > Erkenntnisleistung nun mal nicht zu funktionieren scheint.
>
> Da stimme ich dir zu, aber das habe ich ja schon im ersten Posting
> getan.
>
> Ich habe eben über Maschinen mit "Bewußtsein" geredet. Man darf aber
> nicht vergessen, daß dies im Grunde gar nicht das eigentliche Ziel der
> KI ist (!) Die Zielstellung, so wie ich sie verstehe, ist, die von
> außen beobachtbaren kognitiven Fähigkeiten von Menschen ganz oder
> teilweise nachzubilden, mit den Ziel, irgendwann einmal etwas noch
> Leistungsfähigeres zu entwickeln. Wie du siehst geht es eigentlich gar
> nicht darum, ob die Maschine nun Bewußtsein hat oder nicht, sondern ob
> ihre Leistung für uns von Nutzem sein wird.

Schon. Aber um mit menschlichem Erkennen konkurrieren zu können *müssen*
diese Maschinen eben Bewußtsein entwickeln oder es muß ein zumindest
gleichwertiger Ersatz her: und nun sind wir wieder bei der Frage, wie der
wohl aussähe?

> > Das Erkenntnisvermögen des Menschen, das wohl von niemanden
> > hinreichend genug verstanden wird, daß er sagen könne, es
> > funktioniere so oder so und nicht anders, ist von einer derartigen
> > Universalität, daß es mir schwierig scheint, dieses auch nur
> > ansatzweise "nachstellen" zu können.
>
> Hmm. Du hast keine große Erfahrung mit Software-Entwicklung (bei
> komplexen Problemstellungen), oder? Ich sage das nur, weil es meiner
> Erfahrung nach für Laien extrem schwierig ist, ein intuitives Gefühl
> davon zu bekommen, was dort möglich ist und was nicht.

Ganz so laienhaft bin ich vielleicht gar nicht. Einen Teil meines
Lebensunterhaltes verdiene ich mit der Programmierung von Datenbanken. Ich
bilde mir nur nicht ein, daß, wenn ich da ein Problem gelöst habe und die
Maschine macht was ich (oder mein Kunde) will, mir nun auch schon eine
"intelligente Entität" gegenübersteht.

> > Denn - um das ganz klar zu sagen - es geht ja nicht darum, Spezifica
> > menschlicher Erkenntnisfähigkeit oder gar Fertigkeiten kognitiver Art
> > im Ergebnis mit maschinellen Leistungen zu vergleichen;
>
> Aber genau darum geht es der modernen KI im Grunde hauptsächlich.
>
> > und zwar,
> > weil jedem bekannt ist, daß etwa Computer schon heute schneller
> > mathematische Ergebnisse erzielen oder sogar das Schachspiel besser
> > zu beherrschen scheinen. Der Punkt ist vielmehr, daß diese Routinen
> > selbst überhaupt keine Bedeutung für die menschliche Erkenntnis
> > besitzen. Denn wenn wir nach einer komplizierten Berechnung z.B. den
> > Computer fragen würden, was denn nun das Errechnete *bedeutet*, so
> > würden wir doch wohl schwerlich eine Antwort erwarten dürfen.
>
> Da möchte ich ganz leicht einhaken: Für _den Computer_ bedeuten die
> Ergebnisse vielleicht nichts (für die heutigen wenigstens), aber für
> _uns_ haben sie in der Regel schon Bedeutung!

Nichts anderes habe ich nun freilich behauptet. Und dies als evidenten
Unterschied zwischen Computern und Menschen ausgewiesen. S.u..

> Wenn du so willst kannst du die Rechner damit als "Erweiterung"
> unserer kognitiven Fähigkeiten betrachten, als "externe Auslagerung"
> kognitiver Prozesse (ähnlich den Metaphern von McLuhan). Was dann zu
> ganz anderen interessanten Diskussionsthemen führt :-)
>
> > Wir dagegen, die viel langsameren Rechner, können u.U. sehr wohl
> > etwas mit dieser Frage anfangen.

Mit freundlichen Grüßen

Uwe


Janosch Zwerensky

unread,
Apr 23, 2000, 3:00:00 AM4/23/00
to
In article <38FA139A...@bluewin.de>, uwe.f...@bluewin.de says...
>

>Das ist nicht die Frage. Der Ansatz der Kritik ist ja ein ganz anderer: denn
>es wird behauptet, so etwas wie maschinelle Intelligenz sei prinzipiell
>möglich. Und meines Wissens steht bisher noch das überzeugende Argument
>dafür aus, daß man sich mit einer solchen - aus meiner Sicht doch reichlich
>schwachsinnigen Annahme - überhaupt beschäftigen sollte.

Diese Annahme ist ueberaus sinnvoll. Ein ganz abstraktes Argument fuer ihre
Sinnhaftigkeit kann darin gesehen werden, dass das menschliche Gehirn aus
einem Evolutionsprozess entstanden ist und Evolutionsprozesse nur den Aufbau
selbstreproduzierender Maschinen beeinflussen koennen.
Anders gesprochen, wenn die Evolutionstheorie stimmt, muss der Mensch selbst
eine extrem komplexe biochemische Maschine sein.

> Das Wort
>*künstliche* Intelligenz meint ja bereits, daß es sich dabei um etwas
>Geschaffenes handeln muß. Und wie nun bitteschön soll denn etwas geschaffen
>werden können, wenn man noch nicht einmal hinreichend versteht, wie es um
>das "Vorbild", also die menschliche Intelligenz, bestellt ist.

Man kann ein komplexes System auch bauen, ohne sich an dem Aufbau eines
natuerlichen Systems zu orientieren. Vermutlich gibt es sogar effizientere
Wege, um zu Loesungen fuer intellektuelle Probleme zu kommen, als sie von der
Natur beim Menschen implementiert wurden - schliesslich ist menschenaehnliche
Intelligenz eine Sache, die erst recht spaet im Verlauf der Evolution
aufgetreten ist.

> Wo - nur mal
>so zum Beispiel - wäre denn die Verifikationsgrundlage einer eventuellen
>Behauptung, irgendeine Maschine sei intelligent, wenn wir uns die Kriterien
>(noch) gar nicht zu entwickeln vermögen, die eine solche Verifikation zu
>stützen hätten.

Man kann das genauso machen, wie man die Intelligenz von Menschen einschaetzt,
naemlich, indem man beobachtet, ob ein gegebenes System ein breites Spektrum
an komplizierten Problemen loesen kann und dann die Leistungen des Systems
mit denen von Menschen vergleicht.

>(...) Doch wie steht es denn in


>diesem Zusammenhang um das Begehren, eine der menschlichen Intelligenz
>vergleichbare Maschine zu konstruieren? Wozu brauchen wir das? An
>menschlicher Intelligenz ist doch nun wahrlich kein Mangel, oder? Brauchen
>wir noch mehr davon?
>

Wenn wir einmal menschenaehnliche Intelligenz haben, werden
allein schon Verbesserungen auf dem Bereich der Computerhardware schnell zu
drastisch uebermenschlicher Intelligenz fuehren. Es gibt eine Fuelle von
Problemen, fuer deren Loesung menschliche Intelligenz nicht ausreicht.

>
>Aber natürlich gibt es den: dazu müßte eine Maschine bereits *verstehen*
>können. Denn ohne Verstehen des Kontextes gibt es doch keine Chance,
>irgendwelche Informationen den entsprechenden Kontexten zuzuordnen. Und wie
>soll eine Maschine das tun?

Es gibt Programme, die Mehrdeutigkeiten aufloesen koennen. Aufgrund der
Beschraenktheit ihres Weltwissens und der Datenverarbeitungsraten der
Computer, auf denen sie laufen, erreichen diese Programme dabei bei weitem
nicht die Faehigkeiten des Menschen - dennoch ist es Unsinn, zu behaupten,
eine kuenstliche Maschine waere nicht zum Verstehen sprachlicher Aeusserungen
imstande.

>Dazu müßtest Du ihr doch erstmal ein Bewußtsein
>implantieren. Und wie machst Du das? Vielleicht dadurch, daß Du ein paar
>Synapsen, Hirnströme und einen Transmitteraustausch etc. simulierst. Meine
>Güte ...
>

Wer sagt, dass Bewusstsein zwingend an Synapsen etc. gebunden ist?
Wenn ein Roboter sich so verhaelt, dass ich ihm Bewusstsein zuschreiben
wuerde, wenn er ein Tier oder ein Mensch wuerde, dann nehme ich auch an, dass
er ein Bewusstsein hat.


>Nein, der interessiert mich überhaupt nicht. Ich versuche lediglich, gegen
>den unterbelichteten Gebrauch einiger hochsensibler Termini zu
>argumentieren. Es gibt hier Diskussionsteilnehmer, die mit solchen Begriffen
>wie *Intelligenz*, *Bewußtsein*, *Verstehen* etc. umgehen, als würden sie
>sich im Hundesalon mit Frau Meyer über die neuesten Shampoos für Pudel Waldi
>unterhalten. Und es mag ja sein, daß das das Niveau der KI-Leute ist - was
>mich auch nicht weiter stört. Nur, diese Gruppe hier heißt sci.phil...

Es gibt einige Leute, die gewisse Begriffe solange vergeheimnissen, bis sie
meinen, tiefgruendig zu sein.

Viele Gruesse,
Janosch.


Reini Urban

unread,
Apr 24, 2000, 3:00:00 AM4/24/00
to
Gerke Preussner wrote:
>aus Searle's gedankenexperiment des chinesischen zimmers
>entstand die frage, ob eine maschine, die intelligent zu
>sein _scheint_ auch tatsächlich intelligent ist.
>
>worin besteht denn da nun der unterschied?

ich stimme deiner folgerung zu daß man den unterschied nicht
wissenschaftlich definieren kann.

zur argumentation:

1) subjektiv - objektiv:
ein klassisches philosophisches fach- und streitgebiet.
wissenschaftlich könnte man es mit "messbar" und "nachvollziehbar"
eingrenzen. dann wäre es intelligent. (es scheint so, also ist es. bis
es niemand widerlegt.)

das wesen eines dinges ist von seinem beobachter unabhängig, aber nie
vollständig erfahrbar. es kann nie ein vollständiges "sein" beschreiben,
nur den "schein", nur erfahrbare eigenschaften, nie aber unerfahrbare.
noch dazu gibt es das problem der wechselseitigen beeinflussung von ding
und beobachter.


2) bin ich intelligent?
"cogito ergo sum" ist kein beweis, lediglich eine begriffsbestimmung.
selbstreflexion impliziert bewusstsein.
bewusstsein impliziert intelligenz.
etwas weit hergeholt aber üblich.

zu uwe flehming:
etwas mehr argumentation und etwas weniger meinung wäre gut.

>im rahmen unserer möglichkeiten der wahrnehmung haben wir
>doch auch hier höchstens die macht, zu behaupten, dass
>dieses kind intelligent zu sein _scheint_ (z.b. weil wir
>es mit hilfe unserer augen sehen oder mit unseren ohren
>hören können - wobei 'sehen' und 'hören' kognitive produkte

>darstellen).


>
>bedeutend schwieriger wird das ganze dadurch, dass wir
>bis jetzt keine operationale definition von intelligenz
>haben. was soll also die unterscheidung zwischen intelligenz
>und scheinbarer intelligenz, wenn wir nicht mal genau sagen
>können, worüber wir überhaupt sprechen?

nein, die gibt es. sogar mehrere davon.
allerdings ist sie nicht definiert im philosophischen kontext
schein-sein, der hier eine sackgasse ist, sondern streng
wissenschaftlich. weitergehende implikationen in diese richtung führen
nämlich zu sinnlosen begriffsabgrenzungsversuchen (a la "eine maschine
hat kein bewußtsein, kann nicht denken, wird niemals können". penrose
und konsorten ...)

die wissenschaftliche begriffsbestimung ist auch nie vollständig, weil
die wahrheit über ein ding nie absolut sein kann. (obwohl idealisten und
leninisten das gegenteil behaupten). also gibt es verschiedene
definitionsversuche, die man allerdings woanders nachlesen sollte.

lernfähigkeit, selbstreflexion, anpassungsfähigkeit sind neuerdings
zentrale messbare eigenschaften von intelligenz. (seitdem logische und
quantitative fähigkeiten von maschinen erreicht und übertroffen wurden.)

der klassische intelligenztest ist auch relativ, nicht absolut.

>dass eine maschine demzufolge nur in der lage sein kann,
>intelligent zu erscheinen (in dem sinne, dass sie so

>reagiert, wie man es von einem menschen erwartet), jedoch


>niemals wahrhaft intelligent sein wird, kann ich unter
>diesen umständen überhaupt nicht nachvollziehen.
>

>meiner meinung nach existiert für diese behauptung weder

>eine grundlage, noch ein logischer zusammenhang. weiterhin
>sehe ich für uns keine möglichkeit, zwischen scheinbarer
>und wahrhafter intelligenz zu unterscheiden, weshalb für
>mich beide ausdrücke äquivalent sind (von deren fehlender
>unbefriedigenden definition einmal abgesehen).

>eine weitere frage, die sich mir da stellt ist, inwiefern
>ich für mich selbst davon ausgehen kann, dass ich
>intelligent bin? ich kann doch auch hier nur behaupten,
>dass ich persönlich intelligent zu sein _scheine_.
>

>könnte uns ein sinnesorgan (in welcher form auch immer)
>dabei helfen, mit sicherheit festzustellen, dass wir
>intelligent sind und alles nicht nur den anschein hat,
>als ob es so ist? welche art von organ wäre dafür nötig?
>
>ich gehe davon aus, dass so ein organ nicht existieren
>kann, aber was wäre dann nötig, um diese aufgabe zu
>erfüllen? eine seele? oder nur ein komplexer automat?
>
>vielleicht kann mir ja mal jemand auf die sprünge helfen...

willst du einen gegenbeweis konstruieren um zu zeigen dass du nicht
sagen konnst ob du intelligent bist (oder zb. gar nicht existiert, oder
nur ein traum bist). reductio ad absurdum?
das spießt sich am organ.
du kannst dich natürlich selbst messen, wenn es objektiv messbar und
nachvollziehbar ist. (siehe auch oswald wiener's selbstbeobachtung).
die messbarkeit verbietet aber die reduktion auf ein sinnesorgan, die
das messergebins unabhängig vom messapparat sein muss, bzw mit
verschiedenen messaparaten zum selben ergebins führen muß. also kann das
vorhandensein oder nichtvorhandensein so eines organs nicht zu einem
gültigem schluß führen.

auch die absicht die messbarkeit in frage zu stellen, kann nicht dazu
führen, die eigenschaft an sich (die intelligenz) in frage zu stellen.
auch die art des messapparates (mit eigenintelligenz oder nicht: "seele
oder nur komplexer automat") kann nicht rückschlüsse auf das wesen des
seins des dinges zulassen, sondern lediglich messergebnisse verfälschen.

--
Reini Urban
http://xarch.tu-graz.ac.at/autocad/news/faq/autolisp.html

Felix Schoroth

unread,
Apr 25, 2000, 3:00:00 AM4/25/00
to
Ich bemerke im Umgang mit Menschen immer wieder meine Unfähigkeit
Intelligenz zu vergleichen. Wenn ich etwas zu leicht verstehe dann frage
ich mich ob diese Person weniger intelligent ist als ich oder ob ich im
Nachteil bin und die Tragweite nicht verstehe.
Wenn ich etwas nicht verstehe kann es sein das mein Gegenüber Unsinn
redet oder ich bin nicht intelligent genug um ihn zu verstehen.

Gruß
Felix

Gerke Preussner wrote:

> aus Searle's gedankenexperiment des chinesischen zimmers
> entstand die frage, ob eine maschine, die intelligent zu
> sein _scheint_ auch tatsächlich intelligent ist.
>
> worin besteht denn da nun der unterschied?
>

> ich kann von keinem objekt mit sicherheit wissen, ob
> es intelligent ist oder nicht. wie kann ich also behaupten,
> dass beispielsweise ein kind, das gehen oder sprechen lernt
> intelligent ist?
>

> im rahmen unserer möglichkeiten der wahrnehmung haben wir
> doch auch hier höchstens die macht, zu behaupten, dass
> dieses kind intelligent zu sein _scheint_ (z.b. weil wir
> es mit hilfe unserer augen sehen oder mit unseren ohren
> hören können - wobei 'sehen' und 'hören' kognitive produkte
> darstellen).
>
> bedeutend schwieriger wird das ganze dadurch, dass wir
> bis jetzt keine operationale definition von intelligenz
> haben. was soll also die unterscheidung zwischen intelligenz
> und scheinbarer intelligenz, wenn wir nicht mal genau sagen
> können, worüber wir überhaupt sprechen?
>

> dass eine maschine demzufolge nur in der lage sein kann,
> intelligent zu erscheinen (in dem sinne, dass sie so
> reagiert, wie man es von einem menschen erwartet), jedoch
> niemals wahrhaft intelligent sein wird, kann ich unter
> diesen umständen überhaupt nicht nachvollziehen.
>
> meiner meinung nach existiert für diese behauptung weder
> eine grundlage, noch ein logischer zusammenhang. weiterhin
> sehe ich für uns keine möglichkeit, zwischen scheinbarer
> und wahrhafter intelligenz zu unterscheiden, weshalb für
> mich beide ausdrücke äquivalent sind (von deren fehlender
> unbefriedigenden definition einmal abgesehen).
>
> eine weitere frage, die sich mir da stellt ist, inwiefern
> ich für mich selbst davon ausgehen kann, dass ich
> intelligent bin? ich kann doch auch hier nur behaupten,
> dass ich persönlich intelligent zu sein _scheine_.
>
> könnte uns ein sinnesorgan (in welcher form auch immer)
> dabei helfen, mit sicherheit festzustellen, dass wir
> intelligent sind und alles nicht nur den anschein hat,
> als ob es so ist? welche art von organ wäre dafür nötig?
>
> ich gehe davon aus, dass so ein organ nicht existieren
> kann, aber was wäre dann nötig, um diese aufgabe zu
> erfüllen? eine seele? oder nur ein komplexer automat?
>
> vielleicht kann mir ja mal jemand auf die sprünge helfen...
>

> j3rky


noc...@my-deja.com

unread,
Apr 27, 2000, 3:00:00 AM4/27/00
to
In article <38FEC17A...@bluewin.de>,

Uwe Flehmig <uwe.f...@bluewin.de> wrote:
> noc...@my-deja.com schrieb:

> > Das Problem liegt wohl unter anderem in der allgemeingebräuchlichen


> > Definition des Begriffs "Verstehen", der sich scheinbar dann doch
> > von der philosophischen unterscheidet. MMn "versteht" im allgemeinen
> > Sprachgebrauch eine Entität, wenn sie den Anschein hat, zu
> > verstehen.

> Dies ist - wie Du vielleicht zugeben kannst - dann allerdings eine arg
> "weiche" Definition. Beispiel: Im Zirkus wird einem Pferd zugerufen
> "wieviel ist 2 mal 2?" und es stampft viermal mit dem rechten
> Vorderhuf. Hat es dann verstanden?

Nein. Das ist auch ein schlechtes Gegenargument oder hat das Pferd etwa
für dich den Anschein, daß es verstanden hätte?
Daß die Definition von Verstehen "weich" ist, gestehe ich zu. Ich hätte
auch lieber eine härtere. Ich sehe nur nicht, wie wir da so schnell
hinkommen werden. Jede "härtere" Definition die mir bekannt ist, geht
mAn von unzulässigen zusätzlichen Annahmen aus. Analogie: Glaubst du,
man kann sich erfolgreich mit Geographie auseinandersetzen, wenn man a
priori von der intuitiv absolut einsichtigen Tatsache ausginge, die
Erde sei flach?

> > Man vergleicht ihr Verhalten mit dem von Entitäten, von denen wir
> > hinreichend sicher sind, daß sie "verstehen" (gut bekannte
> > Menschen). Wenn genügend Ähnlichkeit besteht, sagen wir, die
> > Entität "versteht".
>
> Schon. Ich verstehe, was Du sagen willst. Der Fehlschluß liegt aber
> m.E. darin, daß Du bei Deinem Verifikationsversuch darauf angewiesen
> bist, das Spektrum der Möglichkeiten von Verstehen zu beschränken. -
> Man könnte ja eine Maschine so programmieren, daß, wenn ich ihr
> eingebe "wieviel ist '2 mal 2'?" (wobei die Ziffern beliebig sein
> könnten), sie stets die richtige Antwort ausgibt. Nach Deiner Version
> kann sie dann verstehen.

Ich glaube, du mißverstehst mich. Siehe dein Beispiel mit dem Pferd.


> Daraus ist - unter Beachtung der obigen Einlassungen - der Schluß zu
> ziehen, daß Verstehen etwas ist, daß prinzipiell auf alle Gegenstände
> kommunikativer Akte bezogen werden kann.

Willst du mir damit sagen, daß man "Gegenstände", die man nicht
zwischen Menschen kommunizieren kann, nicht verstehen kann?

> Demnach wäre dann aber ein Analogieschluß Deiner Facon nur zulässig,
> wenn er sich genauso wie beim Menschen grundsätzlich auf alle
> Bereiche des Kommunizierbaren erstreckte.

Auf hinreichend viele.

> Und diese Prüfung an einer Maschine, die angeblich verstehen kann,
> durchzuführen, würde wohl sehr schnell zu einem Ende kommen, oder
> meinst Du nicht?

Meine ich nicht. Mich wundert immer wieder, mit welcher Arroganz manche
Menschen behaupten können, eine Instanz X der Klasse Y wird Sache Z
niemals können - wobei sie weder über die zukünftig möglichen Instanzen
der Klasse Y, noch über die Sache Z so genau bescheid wissen.


> > (1) Der Mensch kann als biologische Maschine beschrieben werden,
>
> Wieso? - Der Mensch *hat* zweifelsfrei Bewußtsein. Was daran ist
> bisher im Paradigma der Maschine beschreibbar?

Der Mensch hat nicht zweifelsfrei das, was _manche_ unter Bewußtsein
verstehen. Genauso wenig wie er zweifelsfrei eine "Seele" hat. Daher
doch meine "weiche" Definition. Nach dieser "weichen" Definition hat er
zweifelsfrei Bewußtsein.

> > (2) Ich habe "Consciousness Explained" von Daniel C Dennett gelesen,
> > und die Kernaussage seines Modells für Bewußtsein _verstanden_.
> > Bilde ich mir wenigstens ein. Es stimmt in erstaunlichem Maße mit
> > dem überein, was ich durch Introspektion über meine persönlichen
> > Denkvorgänge erfahren habe. Dennetts These ist (aufs gröbste
> > verstümmelt), daß Bewußtsein letztendlich nur "eingebildet" ist, ein
> > emergentes Phänomen der Zusammenarbeit vieler unbewußter Teilsysteme
> > darstellt. Hmm... ich fürchte, dieser Satz ist warscheinlich sehr
> > leicht mißzuverstehen.
>
> Ist er nicht.

Ist er doch. Was dir sicher bewußt wäre, wenn du Dennett aufmerksam
gelesen hättest.
Mir fällt leider kein Weg ein, die Essenz aus "Consciousness Explained"
hier einfach und klar verständlich darzustellen, ich wollt' ich könnt's.

Ich sag ja, es ist leicht mißzuverstehen :-) Der Kern an Dennetts
Multiple-Draft-Theorie ist doch, daß es dieses "etwas" nicht "gibt",
sondern das es eine Illusion ist. Es gibt demnach kein "karthesisches
Theater", keinen besonderen "Ort" im Kopf, an dem sich das bewußte
Empfinden abspielt.

> > [...]
> > Als Folge vermute ich ganz stark, daß eine Entität, die sich
> > _genau_ so wie ein Mensch verhält (d.h. den härtesten Tests
> > standhält, die man sich vorstellen kann), auch ein
> > ähnliches "Selbstgefühl" im Kopf haben müßte
>
> Ja freilich. *Darin* möchte ich Dir auch nicht widersprechen. Nur: wie
> kommen wir zu dieser Entität?

Kann ich davon ausgehen, daß du der Auffassung bist, daß es unmöglich
ist, zu einer solchen Entität zu gelangen? (Es klingt so)

> > Ich vermute unter anderem ein (mehr oder weniger) detailliertes
> > Modell der eigenen Denkvorgänge zu besitzen, welches parallel zu
> > den eigentlichen Denkvorgängen "abläuft", und diese "beobachtet"
> > (Parallelen identifiziert, Vergleiche anstellt).
>
> Die Reflexion muß sich nicht verdoppeln, um über sich selbst
> Aufklärung zu erlangen.

Das vielleicht nicht, aber Reflexion muß überhaupt erst einmal
entstehen!


> > Hmm. Du hast keine große Erfahrung mit Software-Entwicklung (bei
> > komplexen Problemstellungen), oder? Ich sage das nur, weil es meiner
> > Erfahrung nach für Laien extrem schwierig ist, ein intuitives Gefühl
> > davon zu bekommen, was dort möglich ist und was nicht.
>
> Ganz so laienhaft bin ich vielleicht gar nicht. Einen Teil meines
> Lebensunterhaltes verdiene ich mit der Programmierung von
> Datenbanken. Ich bilde mir nur nicht ein, daß, wenn ich da ein
> Problem gelöst habe und die Maschine macht was ich (oder mein Kunde)
> will, mir nun auch schon eine "intelligente Entität" gegenübersteht.

Das will ich auch hoffen. Vernünftige Menschen würden das nicht tun.
Mal davon abgesehen, um Datenbanken (oder auch anderes) zu
programmieren muss man keine Ahnung von Informatik haben - jedenfalls
wenn ich mir die Beispiele in meinem Umfeld so ansehe :-) Ich möchte
dir wirklich nicht unterstellen, daß du davon nichts verstehst, aber
ich bezog mich auf Software Design und nicht auf "Programmieren". Schon
mal etwas von "Design Patterns" gehört (nur so als Beispiel...)? Mit
dem, was man landläufig unter "Programmieren" versteht, wird man im KI-
Bereich kaum sehr weit kommen.


> > Da möchte ich ganz leicht einhaken: Für _den Computer_ bedeuten die
> > Ergebnisse vielleicht nichts (für die heutigen wenigstens), aber für
> > _uns_ haben sie in der Regel schon Bedeutung!
>
> Nichts anderes habe ich nun freilich behauptet. Und dies als evidenten
> Unterschied zwischen Computern und Menschen ausgewiesen. S.u..

Da sind wir uns ja fast einig, soweit du Computer auf "so wie man sie
momentan kennt" und nicht auf "generell" beziehst. Ich verwehre mich
nur gegen die Art von ad hoc Philosophen, die glauben sie
könnten "Denken" und "Bewußtsein" nach ihrem Gutdünken definieren, ohne
dabei von den Ergebnissen der Naturwissenschaften abhängig zu sein.
Ohne in Betracht zu ziehen, daß sie nun wirklich nicht genug über das
Thema wissen können, um es in dieser Hinsicht als abgehandelt zu
betrachten. Das betrifft insbesondere pseudo-Argumentationen wie die
des "Chinesischen Zimmers".

Timo Breunig

unread,
May 2, 2000, 3:00:00 AM5/2/00
to
Hallo liebe liebenden,

Erlaubt das ich mich hier einklinke.
Ich habe heute euer beider Meinung gelesen und denke es wäre an der Zeit
Ordnung in die Diskussion zu bringen. Anregung soll mein Einwurf sein, nicht
Übername des Disputs.

Euer streit ist zu grossen Teilen nicht: kann eine maschiene Bewustsein
haben? sondern: was kann eine Maschine und was wird sie können.

DIE MASCHINE
Nimmt man an das der Mensch nur aus dem besteht was Wissenschaft vermutet,
also ein biochemischer pool ohne Seele, keine göttliche Leitung usw, dann
wird es möglich sein einen Menschen nachzubauen - vollfunktionsfähig - auf
syntetischer basis. Der Zeitpunkt ist natürlich ungewiss.

Das es sich bei dieser Maschine vieleicht nicht um Computerchips auf grün
schimmernden Platinen handelt ist warscheinlich. Ob diese Maschine humanoid
aufgebaut ist, ist von wichtigkeit sollte die Maschine Fähigkeiten
konditioniert bekommen. Denn ein auf einem Tisch stehender HeimPC hat
natuerlich auch eine andere Warnemung.
Mit Informationsaufnamemöglichkeiten welcher Art
auch immer (Sensoren, Datenleitung) ausgestattet wird eine solche Maschine
die Welt warnemen und die Informationen, seiner anfänglichen Struktur
entsprechend, aufnemen und integrieren. Nein, ich rede nicht von einer
kamera
die Bilder auf einem band speichert.
Diese Maschine müsste die Informationen bewerten. sie wäre wie ein Mensch in
ständigem Wandel begriffen. Ich kann darum nicht schreiben "Diese maschine
müsste die Informationen bewerten - und einem Auswalverfahren entsprechend
speichern" denn das würde glauben machen das zwischen sensorischer Warnemung
und massenspeicher ein fester Filter bestünde. Ein Filter zwischen sensorik
und Massenspeicher ist nötig, ja. Dieser Filter aber wäre
genauso in ständigem Wandel wie es auch die Warnemung eines Menschen ist
(Thema selektive Warnemung uÄ).

Ein ICH wird für die Maschine wichtig/nötig sein sobald sie zwischen
räumlichen Dingen unterschiedet (Baum, Haus, Tür, Baumhaus, braun,
drinnen/draussen, Mensch, Computer, ICH). Wie weit ist es von da bis zu
einem Bewustsein?

Die Rechenkapazität für eine solchen Maschine ist noch lang nicht erreicht,
30 Jahre sind Spekulation.

Wie eine solche Maschine zu funktionieren hat damit sie mehr als Selbstzweck
ist kann an anderer Stelle diskutiert werden. Ideen kommen einem schnell:
Das lösen komplexer Fragestellungen bis hin zur selbstständigen Verwaltung
ganzer Firmen. Die ökonomische sinnhaftigkeit solcher projekte ist wiederum
Thema für sich.


DIE PHILOSOPHIE UND DIE MASCHINE
Viel wichtiger, in Anbertacht der art der Nesgroup, sollte die Frage sein in
wie weit eine solche Maschine
philosophischer Betrachung bedarf. Wird man ihr gegenüber moralisch mehr
verpflichtet sein wie ihrem ökonomischen Gegenwert?
Die wenigsten Menschen werden mich einen schlechten menschen nennen wenn ich
meinen HeimPC zerlege um seine Einzelteile zu verkaufen.
Wie sehe das mit unserer Zukunftsmaschine aus?
Intelligenz vs. scheinbare Intelligenz. Was wollen wir schützen?
intelligente Entitäten, sich ihrer bewuste Entitäten, emfindende Entitäten ?
Mitleiderweckende Entitäteten? Das Warnemen eines Hundes der von einem
Menschen mit einem Dolch gestochen wird ruft in vielen menschen Mitleid
hervor - sie werden sich wünschen ihn schützen zu können. Der Hund ist nicht
Intelligent, oder? Der Hund ist sich seiner Selbst nicht bewust, oder? Aber
der Hund empfindet leid, darum fühlen wir mit ihm.
Eine KI wird bei ensprechendem Informations Angebot über seine demontage
wissen. Wird diese KI aber dieses Ereignis vermeiden wollen ?
-Lasst die Maschine über menschliche Verhaltensmuster informiert sein :"
Wenn seine Hand auf der 70 Gradcellsius heissen Herdplatte liegt emfindet
ein
durchschnittlicher Mensch schmerz, Menschen versuchen solche Situationen zu
vermeiden. "," ein Mensch wird von einem anderen Menschen mit einem Dolch
bedroht; lebenserhaltungswünsche(triebe?) werden die meisten Menschen
veranlassen dieser Situation entgehen zu wollen." usw
- Lasst die Maschine wissen das ihr Erbauerteam in kürze eine Unternemung
auszuführen gedenkt die die Demontage von ICH zur folge haben soll.
- Gehen wir nun davon aus das die Maschine durch die neue Situation
"demontage" reflektiert (wir gehen dafon aus das die maschine alles
reflektiert*, Probleme selbständig nach priorität geordnet bearbeitet.).
- Was wird geschehen?

FRAGEN AN DIE PHILOSOPHIE
Hätte eine solche Maschine Recht auf gesetzlichen Schutz?
Könnte man eine solche Maschine überhaubt besitzen im rechtlichen sinne?
Wie steht es mit Wahlrecht? Freiheit? (Selbst)Reproduktion?
Wenn es einen grösseren Zeitraum in anspruch nimmt die Maschine zu
entwickeln(nicht erfinden - sondern herstellen) gäbe es
Erziehungsberechtigte?
Darf sie überhaubt erfunden/hergestellt werden?

Die Technische realisierbarkeit finde ich philosophisch wertlos (wenn sie
eine Seele gibt dann wird sie sich wohl kaum in einen Haufen Silitium
zwängen lassen).

Ich freue mich auf weitere Ergüsse.


Timo Breunig, Oberhausen/Duisburg


*Ich schreibe "reflektion" da ich reflektion nur als vergleich mit bekanntem
/ durchspielen von möglichkeiten / prüfen der inneren logik usw kenne und
unsere zukunfts maschiene genau das können muss um mehr Beachtung zu finden
als beispielsweise ein Taschenrechner.


PS: Eure posts sind für mich zum teil anstrengent zu lesen. Davon ausgehend
das das anderen auch so geht bitte ich euch (vorallem nocular) euren
schreibstil zu orden. Es geht mir dabei nicht um rechtschreibung oder wirre
_sonderzeichen_ , eher um einen überlegten satz der zwei sätzten, die beim
schreiben enstanden, bevorzugt werden könnte.

Ein anderer punkt ist die struktur der dialektik die sich so
selbstverständlich durch die neuen möglichkeiten ergeben. Ich meine die
sitte auf einen Post zu antworten indem man zwischen den absätzen des
vorgängers schreibt. sehr hilfreich möchte ich das nennen handelt es sich
dabei um einen wechel von rede und gegen/fürrede. jedoch wird diese methode
unübersichtlich und schwer durchschaubar wenn sich dann auf einer seite
gleich 4 Posts in puzzelstücken tummeln. In eurem falle ist das für euch
nicht umbedinngt so eindringlich denn ihr habt ja die hälfte selbst
geschrieben und nunmehr seit einigen tagen aktiv begleitet. Doch wenn ihr
einen geringen anspruch habt öffentlich zu diskutieren solltet ihr versuchen
die meinung der partners mit eigenen worten zu wiederholen. Das hat
zusätzlich den vorteil das euer gegenüber prüfen kann ob ihr seine meinung
so verstanden habt wie beabsichtigt (auch wenn das wieder nur ein annähern
ist).

Ich will damit nicht sagen das mein stil besser wäre - doch ich darf doch
dem bäcker sagen das mir das brot nicht schmeckt wenn ich selbst kein bäcker
binn, oder?

Ja, ich schreibe normalerweise alles klein und ich emfand es als einen akt
mich zur grossschreibung zurückentwickeln zu müssen/wollen.

klaus fischer

unread,
May 3, 2000, 3:00:00 AM5/3/00
to

Timo Breunig <t.br...@via-net-works.de> schrieb in im Newsbeitrag:
8emea5$c0t$1...@news.rp-plus.de...
>> Hallo liebe liebenden..... FRAGEN AN DIE PHILOSOPHIE Hätte eine solche
Maschine Recht auf gesetzlichen Schutz?..... gäbe es Erziehungsberechtigte
?<<

Ich denke, das aufgeworfene Problem resultiert aus der irrigen Annahme, dass
der Mensch quasi außerhalb der sonstigen 'Schöpfung' steht, für ihn also
Privilegien gelten, die 'Anderen' versagt werden. -

Auch der Mensch hat kein >Recht< auf gesetzlichen Schutz per se ; es gibt
kein Naturrecht, dass zB das Töten verbietet. Im Gegenteil : Fressen und
gefressen werden ist die Regel. Das Tötungsverbot, wie auch alle anderen
'moralischen' Forderungen beruhen auf einer Übereinkunft unter Menschen.
Sollen sich also auch intelligente Computer mit Selbstbewußtsein darum
kümmern, dass die Unterbrechung der Stromzufuhr für Dauer, genauso bestraft
wird, wie Mord . <g>

Auch die Sache mit einem >Erziehungsberechtigten< wird man dem Androiden
genau so klar machen müssen, wie einem Exemplar der Rasse homo sapiens.
Lernen und anpassen an seine Umgebung ist nunmal die hervorragende
Eigenschaft jeder Intelligenz.

kj fischer


Timo Breunig

unread,
May 4, 2000, 3:00:00 AM5/4/00
to
Antwort zu post von:
"klaus fischer" <07156937...@t-online.de>


Hört sich für mich an als sollen die Computer sich selbst um ihre Rechte
kümmern.
naturrecht: klaus: "es gibt kein Naturrecht, dass zB das Töten
verbietet...Das Tötungsverbot, wie auch alle anderen 'moralischen'


Forderungen beruhen auf einer Übereinkunft unter Menschen."

Ich würde gerne wissen wieso du glaubst das ich glaube das Recht und moral
vom Universum vorgegeben wären. Auch Naturrecht ist meiner auffassung nach
nicht existent - naturgesetzte schon eher.
Meine frage war demnach ob wir (menschen) _übereinkommen_ sollen, die
maschinen mit einem schutz zu belegen. Wir (viele von uns) sind auch
übereingekommen Tiere zu schützen - sie haben sich nicht selbst darum
gekümmert (ausser durch ihren dackelblich vieleicht).
Ich frage also erst nach Moral - dann nach der Ethik dahinter - wie es
letztlich viele tuhen es dann aber gern schnell vergessen und ihr ethisches
ergebnis als reine cognitive eigenleistung verkaufen.

Also: KIs schützen oder nicht?

Timo

noc...@my-deja.com

unread,
May 4, 2000, 3:00:00 AM5/4/00
to
In article <8er1i8$koj$1...@news.rp-plus.de>,
"Timo Breunig" <t.br...@via-net-works.de> wrote:

> Also: KIs schützen oder nicht?

Gute Frage. Schwierige Frage :-)

Das Problem, das ich sehe ist folgendes: Falls wir KIs _nicht_ den
selben Schutz zukommen lassen wie anderen "Lebewesen", so werden wir
früher oder später in moralische Dilemmas geraten. Insbesondere wenn
die KI ein Verhalten zeigen kann, daß wir zu dem Verhalten eines
Menschen als sehr ähnlich ansehen können. Wie begründen wir dann die
unterschiedliche Behandlung?

Ist ein Mensch von sich aus Wert, geschützt zu werden? Wie auch immer
man die Frage beantworten will, die Antwort nützt nur etwas, wenn man
genau definieren kann, was Mensch ist. Und das wird immer schwieriger
werden. Zum einen, weil wir immer mehr zu der Erkenntnis kommen, daß
Mensch nur ein Teil des Ganzen ist: Eine von vielen Folgen des
universellen Evolutionsalgorithmus. Zum anderen, weil die Unterschiede
zwischen Menschen in verschiedenen Teilen der Welt immer größer werden
(durch genetic engineering oder einfach weil Homo Sapiens Sapiens nur
als Teil seiner kulturellen Umgebung Mensch ist).

klaus fischer

unread,
May 5, 2000, 3:00:00 AM5/5/00
to

Timo Breunig <t.br...@via-net-works.de> schrieb in im Newsbeitrag:
8er1i8$koj$1...@news.rp-plus.de...
> Antwort zu post von: "klaus fischer" <@t-online.de>

>> Hört sich für mich an als sollen die Computer sich selbst um ihre Rechte
kümmern.<<

So sagte ich ;-) .....und wenn sie sich wirklich zu einer eigenen
intelligenten Spezies entwickeln sollten, werden sie auch ihre 'Rechte'
reklamieren. -

>> Ich würde gerne wissen wieso du glaubst das ich glaube das Recht und
moral
vom Universum vorgegeben wären. <<

Das habe ich so nicht gesagt. Im Gegenteil. Recht und Moral haben sich
unter den Bedingungen der Naturgesetze, durch zwischenmenschliche
Beziehungen entwickelt.

>> Meine frage war demnach ob wir (menschen) _übereinkommen_ sollen, die
maschinen mit einem schutz zu belegen. Wir (viele von uns) sind

auchübereingekommen Tiere zu schützen letztlich viele tuhen es dann aber
gern schnell vergessen und ihr ethisches .Also: KIs schützen oder nicht?<<

nein ! Intelligente Androiden bedürfen nicht unseres Schutzes (vielleicht
stellt sich die Frage wie wir uns vor ihnen schützen noch eher <g>)
Maschinen mit 'künstlicher Intelligenz' (KI) werden kein Selbstbewußtsein
haben und keine Fragen stellen auf die sie nicht programmiert waren. -

Wie zu ersehen, ist es eine Definitionsfrage, was als KI anzusehen ist.

kj fischer


Michael Cieslik

unread,
May 19, 2000, 3:00:00 AM5/19/00
to

M.BLUM...@cl-hh.comlink.de schrieb in Nachricht
<7bn-T...@p-mbl.cl-hh.comlink.de>...
>
>Es begab sich am 13.04.00, als der/die ehrenwerte gerke.preussner
>(gerke.p...@gmx.net) um 15:27 in /DE/SCI/PHILOSOPHIE
>zum Thema "Intelligenz vs. scheinbare Intelligenz" eine Mail gebar:

>
>> aus Searle's gedankenexperiment des chinesischen zimmers
>> entstand die frage, ob eine maschine, die intelligent zu
>> sein _scheint_ auch tatsaechlich intelligent ist.

>>
>> worin besteht denn da nun der unterschied?
>
>Intelligenz ist die Faehigkeit eines Organismus zur Loesung von
>Lebensproblemen und zur konstruktiven Erfassung und Veraenderung der
>Lebenswelt.

Hallo Martin,

ich finde es erstaunlich, mit welcher Selbstsicherheit Du diese Definition
ablieferst. Mal sehen, wie sicher wirklich die Säulen sind, auf denen diese
Definition fußt. Mir riecht es hier nämlich ein wenig nach Sophisterei:

Gerke fragt nach dem Unterschied zwischen dem Sein und Schein. Wann etwas
ist, und wann etwas wirkt, wann etwas bei einer dritten Person auslöst. Kann
etwas sein, wenn es nicht nach aussen gegeben wird?
Kann man eigentlich da noch eine scharfe Grenze ziehen?

In Deiner - meiner Meinung nach fragwürdigen - Definition ziehst Du diese
Grenze schon, ohne auf die eigentliche Frage zu antworten.
"Intelligent ist u.a., was die Lebenswelt konstruktiv verändert", doch warum
konstruktiv? und wer bewertet denn was gut oder schlecht ist? Beziehst Du in
Deine Definition nicht still und heimlich einen Beobachter, der sieht und
richtet? Oder reflektiert der "intelligente Organismus" selbst? Ist
AutoReflexion notwendiges Kriterium für Intelligenz?

Angenommen (Auto)Reflexion *ist* notwendiges Kriterium für Intelligenz, dann
ist keine Katze intelligent. Oder willst Du mir weißmachen, dass eine Katze
sich abends hinsetzt und sich denkt, "wow, heute habe ich besonders
konstruktiv meine Umwelt manipuliert". Wohl kaum! [1].

Also muß ich davon ausgehen, dass Reflexion kein notwendiges Kriterium für
Intelligenz ist. Wer bleibt dann übrig, um zu richten, was konstruktiv ist
und was nicht?

Bleibt nur noch unserer Beobachter, der still und heimlich zwischen den
Zeilen Deiner Definition zuschaut und richtet, ob jemand besonders
konstruktiv manipuliert oder nicht. Wer ist das?

Ist ein Lebewesen, dass völlig einsam und ohne Beobachter ist, wirklich
*nicht* intelligent, weil niemand dessen Handlungen als konstruktiv bewerten
kann? [1].

Also, was machen wir nun mit diesem "konstruktiv", das in der Definition
nicht so richtig am Platze zu sein scheint... streichen wir es mal und es
steht noch da:

Intelligenz ist die Faehigkeit eines Organismus zur Loesung von
Lebensproblemen und zur Erfassung und Veraenderung der
Lebenswelt.

Kurz nachdenken!
Nach dieser Definition ist ein automatischer Türöffner schon intelligent!
Seine Lebenswelt ist die Tür und der Ort davor bzw. dahinter. Der Öffner
erkennt, wenn jemand vor der Tür steht (Erfassung der Lebenswelt) und
manipuliert sie (Öffnen, schliessen der Tür).

Aber ist ein Türöffner intelligent? In meinen Augen in nur sehr geringem
Maße.

Und wie sieht es mit dem ersten Teil der Definition aus?

Intelligenz ist die Faehigkeit eines Organismus zur Loesung von
Lebensproblemen

Nun ja. Die Lösung von Problemen liefert mir (laut seiner Definition) ein
Algorithmus. Nun betrachte ich einen Automaten (Automatentheorie) als
Organismus mit einem Algorithmus, dann ist nach Deiner Definition jeder
Automat intelligent.

Schade, auch falsch!

Folgende hilflose Erläuterungen retten da auch nichts mehr...
>Intelligenz meint immer einen Handlungesprozess aktiver
>Auseinandersetzung mit der Welt
Automaten, Roboter

>unter Voraussetzung bestimmter
>Erfahrungen.
Meßwerte, Fuzzy-technologie, Neuronale Netze

>Intelligenz entwickelt sich auf Basis bestimmter Anlagen
>des Organismus durch die Sozialisation im Bezugsrahmen konkreter
>Lebensbewaeltigung.
Robotergruppen, Cog am MIT

>Daher kann Intelligenz auch nicht rein individuell
>bestimmt werden, sondern nur in gesellschaftlicher Praxis, in der Art
>und Weise, wie - bei untermenschlichen Organismen - die Umwelt oder
>beim Menschen die Welt verarbeitet wird.

Der einzige Mensch auf der Welt kann nie intelligent sein?

>Maschinen sind keine Organismen und entwickeln daher auch keine
>Intelligenz.
LexiRom "Organismus: grösseres Ganzes, dessen Teile zusammenwirken"
Also, jede Maschine ist ein Organismus.

[Psychologie]... uninteressant... abschweifend

Ich hoffe, dass ( zumindest in der KI-NG) niemand geantwortet hat, weil
diese Lücken dieser Argumentation so offensichtlich waren.

Vielen Dank fürs Lesen,
--
-:! Michael !:-
.
visit the future!:... . . . .
http://www.fjutsha-njus.de

[1] Ich weiss, dass die Diskussion hier nicht aufhört.... bei Interesse
unterhalte ich mich hier gerne weiter.
Nur kurz mein Standpunkt:
Ich persönlich wende mich von einer "Digitalisierung des
Intelligenzbegriffs" ab. Häufig - gerade in philosophischen Debatten - wird
'Intelligenz' mit 'menschlicher Intelligenz' gleichgesetzt. Alles andere ist
nicht intelligent.
Das dem nicht so ist, ist offensichtlich. Also, finde ich, sollten wir
übergehen in einen "analogen Intelligenzbegriff", der nicht entscheidet: ja,
intelligent ..... oder nein, nicht intelligent, sondern bestimmt in welchem
Maße jmd. oder etw. intelligent ist... Ich kann mir da das Spektrum von 0
(wie intelligent wie ein Stein) bis unendlich (intelligenter als alles
bisher Bekannte) vorstellen....
Ich kann icht ohne diesem Gedanken im Hinterkopf über eine
Intelligenzdefinition reden.


Gerke Preussner

unread,
May 19, 2000, 3:00:00 AM5/19/00
to
>> Gerke fragt nach dem Unterschied zwischen dem Sein und Schein.
>> Wann etwas ist, und wann etwas wirkt, wann etwas bei einer
>> dritten Person auslöst. Kann etwas sein, wenn es nicht nach
>> aussen gegeben wird? Kann man eigentlich da noch eine scharfe
>> Grenze ziehen?

leider wurde diese frage von den meisten leuten falsch verstanden
und sofort durch unterschiedlichste glaubensgrundsätze ersetzt :)

>> Also, finde ich, sollten wir übergehen in einen "analogen
>> Intelligenzbegriff", der nicht entscheidet: ja, intelligent
>> ..... oder nein, nicht intelligent, sondern bestimmt in
>> welchem Maße jmd. oder etw. intelligent ist...

das meine ich, wenn ich sage, dass eine katze in bezug auf
ihre bauliche komplexität nicht weniger intelligent ist,
als wir.

auch wenn es vielen leuten nicht in den kragen passen wird:
ansichten, die den menschen als ausnahmeerscheinung unter
allen irdischen lebewesen auf der erde ansehen halte ich für
genauso veraltet, wie die bibel. "ich denke also bin ich" kann
in keiner weise implizieren, dass das für die mich umgebenden
menschen ebenfalls gilt (wenngleich es natürlich nicht ganz
abwägig ist, eine solche vermutung aufzustellen).

ich habe diese woche am strand einen sehr interessanten hund
beobachtet, der trotz grösserer wellen immer wieder einen
stock aus dem wasser zurück zu seinem herrchen gebracht hat.
durch die wellen konnte der hund den stock eigentlich gar
nicht richtig sehen, aber trotzdem wusste er, in welche richtung
er ungefähr schwimmen muss. und er wusste auch, dass er an-
schliessend von seinem herrchen gestreichelt wird, was ihn
weiter vorantrieb. es wird wohl niemand abstreiten, dass sein
handeln geplant und von eigennutz getrieben war.

solche verhaltensweisen sind den unseren sehr ähnlich und mir
soll mal einer klarmachen, inwiefern dieser hund keinerlei
intelligenz besitzt (nach welcher definition auch immer).

und wenn mir jetzt einer mit erlerntem verhalten kommt, oder
meint, dieser hund hätte kein ich- oder existenz-bewusstsein,
dann bin ich auf die beweisführung unter einbeziehung des
organismus 'mensch' schon sehr gespannt.

was ich besonders interessant finde ist, dass die meisten
leute es für möglich halten würden, einen solchen hund
mechanisch bauen zu können. dieser maschinenhund, der die
gleichen verhaltensweisen zeigt wäre natürlich nicht
intelligent, denn der richtige hund ist es ja auch nicht.

einen menschen zu bauen halten dagegen die meisten leute
für unmöglich (woran das wohl liegen mag?). obwohl dieser
maschinenmensch rein äusserlich wie ein richtiger mensch
wirken würde, lehnen es die meisten leute ab, dieser
maschine intelligenz oder gar ein bewusstsein zuzuschreiben.
und das ist eine sache, die ich nicht nachvollziehen kann,
da ich auch bei einem richtigen menschen nicht feststellen
kann, inwiefern er intelligenz oder bewusstsein besitzt.

bevor wir das problem mensch <-> maschine angehen, sollten
wir uns vielleicht erstmal über das problem mensch <-> tier
wirklich im klaren sein, denn beide probleme liegen meiner
meinung nach nicht so weit auseinander. in dieser richtung
wurde in den letzten jahrtausenden zwar schon viel unternommen,
aber die subjektiven erfahrungen der menschen hatten auf die
ergebnisse jedes mal einen erheblichen einfluss.

j3rky

Gerke Preussner

unread,
May 19, 2000, 3:00:00 AM5/19/00
to
>> unter allen irdischen lebewesen auf der erde

das war natürlich doppelt gemoppelt, sorry
:)

j3rky

Daniel Müller

unread,
Jun 4, 2000, 3:00:00 AM6/4/00
to
Hi Michael!

Am 19.05.00, 13:14:59, schrieb "Michael Cieslik" <CodeCo...@gmx.de>
zum Thema Re: Intelligenz vs. scheinbare Intelligenz:

> Angenommen (Auto)Reflexion *ist* notwendiges Kriterium für
Intelligenz, dann
> ist keine Katze intelligent. Oder willst Du mir weißmachen, dass eine
Katze
> sich abends hinsetzt und sich denkt, "wow, heute habe ich besonders
> konstruktiv meine Umwelt manipuliert". Wohl kaum! [1].

Eine Katze setzt sich abends hin und denkt: "Wow, heute habe ich meine
Umwelt besonders konstruktiv manipuliert.". Manchmal denkt sie aber
auch: „Heute war mal wieder ein scheiß Tag, mein Herrchen ist den
ganzen Tag nur vor dem Fernseher gehockt und hat mich kein einziges
mal gestreichelt, ich werd' den wohl mal etwas demolieren müssen.“ Und
jetzt beweis mir mal das Gegenteil.

> Kurz nachdenken!

Länger nachdenken!

> Nach dieser Definition ist ein automatischer Türöffner schon
intelligent!

> Seine Lebenswelt ist die Tür und der Ort davor bzw. dahinter. Der ÿ


Öffner
> erkennt, wenn jemand vor der Tür steht (Erfassung der Lebenswelt) und
> manipuliert sie (Öffnen, schliessen der Tür).

Du behauptest die Definition sei falsch, weil Türöffner nicht
intelligent sind?

> Aber ist ein Türöffner intelligent? In meinen Augen in nur sehr
geringem
> Maße.

Aber in deinen Augen sind sie doch intelligent, das versteh ich nicht.

Viele Grüße
Daniel

0 new messages