Zentrale Begriffe/Schlüsselworte zur starken/allgemeinen KI

24 views
Skip to first unread message

Burkart

unread,
Oct 13, 2019, 10:49:41 AM10/13/19
to
Was sind für euch die zentrale Begriffe zu (einer (praktischen)
Entwicklung) einer allgemeinen KI?

Das erste ist für mich das "Lernen", das zweite (wichtigere hinsichtlich
*starker* bzw. *allgemeiner* KI) ist für mit das "Verstehen".

Wenn eine KI erst einmal richtig verstehen (bzw. begreifen o.ä.) kann,
ist man dem Ziel der starken, allgemeinen KI ein Stück näher gekommen.

Gruß, Burkart

Jens Kallup

unread,
Oct 14, 2019, 6:38:17 AM10/14/19
to
Am 13.10.19 um 16:49 schrieb Burkart:
Aloha Burkart,

Erstens: AI gibt es doch nun wirklich nicht. Jedenfalls nicht im Sinne
für den Ersatz von Menschen.

Wie kann eine KI Maschine lernen?
Nun ganz einfach: garnicht.
Warum: Es werden nur Daten in Form von Bits in Form von 0 und 1
gesammelt und Ausgewertet.
Auswerte-Daten werden von Menschen interpretiert/analysiert und mit
Hilfe von Computerprogrammen, die ebenfalls nur nach 0 und 1 vorgehen,
zusammen gestellt.
Diese Zusammenstellung wird wiederum von anderen Menschen interpretiert.
Zum Beispiel werden digitialisierte Wetterdaten prognostisiert.
Diese Daten können wahr oder falsch sein.
Also machen Menschen mit solchen Daten Fehler.
Noch mehr Fehler machen Computer damit.

Neulich kam von Arte (TV-Sender) eine Sendung über Flugtechnik.
Dort wurde über ein Flugzeugunglück gesprochen, bei dem alle Passagiere
ums Leben gekommen sind. Und nur deshalb, weil die Technik aka Computer
falsch reagierte, und die Piloten nicht eingreifen konnten, weil der
Board-Computer das Steuern übernahm.

Selbst die Japaner hatten neulich einen Bericht gebracht, bei dem es
auch um KI ging.
Darin wurde gesagt, das sie es aufgegeben hatten ein bestimmtes Programm
weiter zu entwickeln. Sie hatten bis zu 30.000 (dreizig tausend) States.
Und vor 1 oder 2 Jahren hatte GOOGLE einen KI Server abgeschaltet, weil
der sich verselbstständigt hatte.

Also werden da noch Große Probleme auf die Entwickler und Bediener von
KI-Maschinen/Programmen kommen.

Gruß, Jens

Hermann Riemann

unread,
Oct 14, 2019, 7:55:38 AM10/14/19
to
Am 14.10.19 um 12:38 schrieb Jens Kallup:

> Erstens: AI gibt es doch nun wirklich nicht.

Ich würde bei echter KI da sicherheitshalber "derzeit nicht bekannt" sagen.

> Jedenfalls nicht im Sinne
> für den Ersatz von Menschen.

Sind Menschen intelligent?
Es gibt da erhebliche Unterschiede.

> Wie kann eine KI Maschine lernen?

Auf Basis evolutionärer code Programmierung schon.
Nur ist ein Nachbau vom bekannten biologischen Verfahren
(zufällige Mutation) ineffizient.

Wenn sie nicht ihr Wissen (Daten) testet,
sondern auch ihre Programme mit diversen Methoden
anpasst, sieht einiges anders aus.
Z.B. Programmschnipsel assoziativ suchen,
virtuell testen ..

> Nun ganz einfach: garnicht.
> Warum: Es werden nur Daten in Form von Bits in Form von 0 und 1
> gesammelt und Ausgewertet.

Macht das Gehirn auch.
Auf neuronale Leitungen gibt es vom Signal her keine analogen Werte.
Bis vielleicht auf die Zeit. ( Holographische Synchronisation?)

> Auswerte-Daten werden von Menschen interpretiert/analysiert und mit
> Hilfe von Computerprogrammen, die ebenfalls nur nach 0 und 1 vorgehen,

Es gab auch Analogcomputer.

> Diese Zusammenstellung wird wiederum von anderen Menschen interpretiert.

computer interpretieren auch menschliche Daten.

> Neulich kam von Arte (TV-Sender) eine Sendung über Flugtechnik.
> Dort wurde über ein Flugzeugunglück gesprochen, bei dem alle Passagiere
> ums Leben gekommen sind. Und nur deshalb, weil die Technik aka Computer
> falsch reagierte, und die Piloten nicht eingreifen konnten, weil der
> Board-Computer das Steuern übernahm.

Kann bei Menschen auch passieren.

> Selbst die Japaner hatten neulich einen Bericht gebracht, bei dem es
> auch um KI ging.
> Darin wurde gesagt, das sie es aufgegeben hatten ein bestimmtes Programm
> weiter zu entwickeln.

BER?

> Also werden da noch Große Probleme auf die Entwickler und Bediener von
> KI-Maschinen/Programmen kommen.
Vielleicht anders als Du denkst.
Menschen werden dem Fachsimpeln von Maschinen z.B. deswegen
nicht folgen können, weil sie keine relativ unabhängige 1000 Variablen
gleichzeitig hantieren können.

Hermann
der allerdings meint, dass in vielen Fällen KI etliches
besser verständlich machen wird, als es Menschen tun.
Z.B. weil sich Maschinen in Individuen besser rein denken
( nicht unbedingt ) fühlen können, als Menschen,
wenn sie deren Denkgewohnheiten und interne Gedankengänge
nach konstruieren können.

--
http://www.hermann-riemann.de

Burkart

unread,
Oct 14, 2019, 2:49:11 PM10/14/19
to
Am 14.10.2019 um 12:38 schrieb Jens Kallup:
> Am 13.10.19 um 16:49 schrieb Burkart:
>> Was sind für euch die zentrale Begriffe zu (einer (praktischen)
>> Entwicklung) einer allgemeinen KI?
>>
>> Das erste ist für mich das "Lernen", das zweite (wichtigere
>> hinsichtlich *starker* bzw. *allgemeiner* KI) ist für mit das
>> "Verstehen".
>>
>> Wenn eine KI erst einmal richtig verstehen (bzw. begreifen o.ä.) kann,
>> ist man dem Ziel der starken, allgemeinen KI ein Stück näher gekommen.
>>
>> Gruß, Burkart
>
> Aloha Burkart,

Hallo Jens,

> Erstens: AI gibt es doch nun wirklich nicht. Jedenfalls nicht im Sinne
> für den Ersatz von Menschen.

Ich sprach ja auch von "dem Ziel der starken, allgemeinen KI ein Stück
näher gekommen", also die allgemeine KI / AGI als (langfristige)
Perspektive.

> Wie kann eine KI Maschine lernen?
> Nun ganz einfach: garnicht.

Warum ignorierst du existierende Lernmethoden? Oder kennst du wirklich
keine?

> Warum: Es werden nur Daten in Form von Bits in Form von 0 und 1
> gesammelt und Ausgewertet.

Na und? Menschen bestehen auch nur aus Atomen (u.ä.), gibt es sie
deshalb nicht?

> Auswerte-Daten werden von Menschen interpretiert/analysiert und mit
> Hilfe von Computerprogrammen, die ebenfalls nur nach 0 und 1 vorgehen,
> zusammen gestellt.

Programme gehen nach viel mehr vor.

> Diese Zusammenstellung wird wiederum von anderen Menschen interpretiert.
> Zum Beispiel werden digitialisierte  Wetterdaten prognostisiert.
> Diese Daten können wahr oder falsch sein.
> Also machen Menschen mit solchen Daten Fehler.
> Noch mehr Fehler machen Computer damit.

Nur, wenn die "Computer", also deren Software nicht gut genug ist.

> Neulich kam von Arte (TV-Sender) eine Sendung über Flugtechnik.
> Dort wurde über ein Flugzeugunglück gesprochen, bei dem alle Passagiere
> ums Leben gekommen sind. Und nur deshalb, weil die Technik aka Computer
> falsch reagierte, und die Piloten nicht eingreifen konnten, weil der
> Board-Computer das Steuern übernahm.

Ja, Software kann schlecht programmiert sein.

> Selbst die Japaner hatten neulich einen Bericht gebracht, bei dem es
> auch um KI ging.
> Darin wurde gesagt, das sie es aufgegeben hatten ein bestimmtes Programm
> weiter zu entwickeln. Sie hatten bis zu 30.000 (dreizig tausend) States.

Was sollen States sein? Die lassen sich mit weniger als 15 Bit
darstellen (2^15 = 32768)...

> Und vor 1 oder 2 Jahren hatte GOOGLE einen KI Server abgeschaltet, weil
> der sich verselbstständigt hatte.

Was immer "verselbstständigt" heißt, vermutlich einfach fehlerhaft war.

> Also werden da noch Große Probleme auf die Entwickler und Bediener von
> KI-Maschinen/Programmen kommen.

Klar, einfach ist natürlich nicht, aber das wäre ja auch langweilig.

> Gruß, Jens

Gruß, Burkart

Joachim Pimiskern

unread,
Nov 14, 2019, 6:29:26 PM11/14/19
to
Am 14.10.2019 um 12:38 schrieb Jens Kallup:
> Selbst die Japaner hatten neulich einen Bericht gebracht,
> bei dem es auch um KI ging. Darin wurde gesagt, das sie
> es aufgegeben hatten ein bestimmtes Programm
> weiter zu entwickeln. Sie hatten bis zu 30.000
> (dreizig tausend) States.

In den achtziger Jahren gab es das Projekt
Fünfte Generation, das auf den modernen VLSI-Chips
und der Sprache Prolog basieren sollte.
Gefördert durch das MITI.

> Und vor 1 oder 2 Jahren hatte GOOGLE einen
> KI Server abgeschaltet, weil der sich
> verselbstständigt hatte.

Erinnert an Deep Thought. Der war so intelligent,
daß er die Existenz des Schokoladenpuddings
und der Einkommensteuer auseinander ableitete,
bevor es jemandem gelang, ihn abzuschalten
(im Englischen rice pudding).

Grüße,
Joachim

Joachim Pimiskern

unread,
Nov 20, 2019, 1:55:58 AM11/20/19
to
Am 13.10.2019 um 16:49 schrieb Burkart:
> Was sind für euch die zentrale Begriffe zu (einer (praktischen)
> Entwicklung) einer allgemeinen KI?

Auf oberster Ebene muß ein symbolisches System stehen.
Neuronale Netze, Genetische Algorithmen usw. sind ja ganz
nützlich, aber eine Planungskomponente muß entscheiden,
woher die Inputs kommen und wohin die Outputs gehen sollen,
wann wie oft trainiert werden soll, wie die Ergebnisse zu
interpretieren sind.

Begriffskonzepte, Begriffsnetzwerke sind nötig.
Zum einen, um der KI eine Grundausstattung an Weltwissen
zu geben, ohne vorher zu lernen. Zum anderen, um
Inferenzvorgänge in bestimmte Bahnen zu lenken, die
eine kombinatorische Explosion vermeiden. Inference Engines
können leicht aus wenigen Aussagen unendlich viele machen:
A und B sind wahr. Also ist auch A und A und B wahr,
A und B und B und A ist wahr...

Solche Inferenzvorgänge/Beweisfolgen muß man genau
im Zaum halten, am besten durch Zusatz(Meta-)wissen.


> Das erste ist für mich das "Lernen", das zweite
> (wichtigere hinsichtlich *starker* bzw. *allgemeiner* KI)
> ist für mit das "Verstehen".

Ein symbolisches System häuft Wissen in Form
von Sätzen einer formalen Sprache an. Das Lernen
besteht in dem Erwerb nützlicher Sätze,
die Integration des Wissens ist nur das Ablegen
in einer Datei.

Grüße,
Joachim

Burkart

unread,
Nov 24, 2019, 4:17:44 AM11/24/19
to
Am 20.11.2019 um 07:55 schrieb Joachim Pimiskern:
> Am 13.10.2019 um 16:49 schrieb Burkart:
> > Was sind für euch die zentrale Begriffe zu (einer (praktischen)
> > Entwicklung) einer allgemeinen KI?
>
> Auf oberster Ebene muß ein symbolisches System stehen.

Das sehe ich insofern auch so, als dass so ein KI-System praktikabler ist.

> Neuronale Netze, Genetische Algorithmen usw. sind ja ganz
> nützlich,

Genau, z.B. zum Herausfiltern von relevanten Daten beim Sehen u.ä.

> aber eine Planungskomponente muß entscheiden,
> woher die Inputs kommen und wohin die Outputs gehen sollen,
> wann wie oft trainiert werden soll, wie die Ergebnisse zu
> interpretieren sind.

Insbesondere, wenn wir Menschen die Kontrolle über die KI haben wollen,
ist das sinnvoll. Ich sehe die KI als "Diener" (bzw. Werkzeug) des
Menschen an, nicht als völlig eigenständige, völlig freie Kreatur;
immerhin wollen wir sie ja erschaffen zu unserem Nutzen.

Man kann sich allerdings fragen, wie das menschliche Gehirn es ohne
explizite Planungskomponente schafft bzw. "nur" mit seinem neuronalen
Netzwerk u.ä.
Kann letzteres doch irgendwie Symbole erzeugen und damit dann z.B. planen?

> Begriffskonzepte, Begriffsnetzwerke sind nötig.

Yep, und diese (insbesondere Inhalte) sollten erlernbar sein.

> Zum einen, um der KI eine Grundausstattung an Weltwissen
> zu geben, ohne vorher zu lernen.

Hm, wie willst du ihr diese Grundausstattung geben? Fest implementieren?
Das scheint mir zweifelhaft, zumindest wenn es wirklich um Weltwissen
(Fakten...) geht, und nicht um Planungsstrategie oder so.

Dann würde ich lieber einen grundlegenden Kern mit Lern- und
Planungsmöglichkeiten u.ä. aufbauen, der alles wichtige lernen kann.

> Zum anderen, um
> Inferenzvorgänge in bestimmte Bahnen zu lenken, die
> eine kombinatorische Explosion vermeiden. Inference Engines
> können leicht aus wenigen Aussagen unendlich viele machen:
> A und B sind wahr. Also ist auch A und A und B wahr,
> A und B und B und A ist wahr...
>
> Solche Inferenzvorgänge/Beweisfolgen muß man genau
> im Zaum halten, am besten durch Zusatz(Meta-)wissen.

Insofern ist eine vernünftige Planungskomponente wichtig oder wie wir
sie nennen wollen.

> > Das erste ist für mich das "Lernen", das zweite
> > (wichtigere hinsichtlich *starker* bzw. *allgemeiner* KI)
> > ist für mit das "Verstehen".
>
> Ein symbolisches System häuft Wissen in Form
> von Sätzen einer formalen Sprache an. Das Lernen
> besteht in dem Erwerb nützlicher Sätze,
> die Integration des Wissens ist nur das Ablegen
> in einer Datei.

Die Frage ist dann, woher die Sätze kommen.
Dem Menschen werden sie ja auch nicht ins Gehirn eingepflanzt, sondern
er lernt sie irgendwie.
Sicher, bei einfachen Fakten wie "Paris ist Hauptstadt von Frankreich"
kann er dies (recht) unreflektiert 1:1 lernen, aber zumindest sollte er
schon wissen, was "Hauptstadt" usw. bedeutet.

Überhaupt ist "bedeuten" bzw. "Bedeutung" ein sehr interessanter Aspekt,
der genauer zu untersuchen ist.
Meine Idee ist, dass die KI ein (oder ganz wenige) Kernziel(e)
implementiert bekommt wie "Mache das, was von dir erwartet wird"
(=erreiche die Ziele, die dir vorgelegt werden, soweit es geht) und dass
die KI daran Bedeutungen anhängen kann.
Wenn ich z.B. die KI anweise, von A nach B zu gehen und sie dies nicht
direkt kann, kann sie z.B. den Begriff "Hindernis" lernen.

Ok, eine große Herausforderung wird sein, dass die KI uns Menschen
versteht (sollte sie also damit in unserer Welt "leben" müssen?), damit
sie die Bedeutung von "Hauptstadt" u.ä. überhaupt verstehen kann.
Insofern ist es sicher wichtig, ihr irgendwie grundlegendes Weltwissen
zukommen lassen zu können, nur das sinnvolle Wie und welches ist die Frage.

Gruß, Burkart

Jens Kallup

unread,
Nov 25, 2019, 4:42:47 AM11/25/19
to
Am 24.11.19 um 10:18 schrieb Burkart:
> Die Frage ist dann, woher die Sätze kommen.
> Dem Menschen werden sie ja auch nicht ins Gehirn eingepflanzt, sondern
> er lernt sie irgendwie.
> Sicher, bei einfachen Fakten wie "Paris ist Hauptstadt von Frankreich"
> kann er dies (recht) unreflektiert 1:1 lernen, aber zumindest sollte
> er schon wissen, was "Hauptstadt" usw. bedeutet.
>
> Überhaupt ist "bedeuten" bzw. "Bedeutung" ein sehr interessanter
> Aspekt, der genauer zu untersuchen ist.
> Meine Idee ist, dass die KI ein (oder ganz wenige) Kernziel(e)
> implementiert bekommt wie "Mache das, was von dir erwartet wird"
> (=erreiche die Ziele, die dir vorgelegt werden, soweit es geht) und
> dass die KI daran Bedeutungen anhängen kann.
> Wenn ich z.B. die KI anweise, von A nach B zu gehen und sie dies nicht
> direkt kann, kann sie z.B. den Begriff "Hindernis" lernen.
>
> Ok, eine große Herausforderung wird sein, dass die KI uns Menschen
> versteht (sollte sie also damit in unserer Welt "leben" müssen?),
> damit sie die Bedeutung von "Hauptstadt" u.ä. überhaupt verstehen kann.
> Insofern ist es sicher wichtig, ihr irgendwie grundlegendes Weltwissen
> zukommen lassen zu können, nur das sinnvolle Wie und welches ist die
> Frage.

Hallo Burkart,

"Bedeutung" ist tatsächlich 1:1 - was soll ein Hund machen, wenn er von
Dir ein
Handzeichen sieht - oder laut wie "sitz" ?
Da ist es auch "festes" Wissen, das dem Hund (KI) möglichst früh beigebracht
werden muss - ansonsten verfrikkelt man sich im Laufe der Entwicklung
der KI.

Mit heutigen Mitteln, kann man nur 5 States abarbeiten.
Wobei 2 Abgezogen werden müssen - für ein "überabzählbar Zeichen" sowie ein
Data-Flag, also wohin und woher (0 1) die Daten gehen sollen.
Womit wir dann wieder bei 3 States sind: JA - NEIN - VIELLEICHT.

Das ist ein großes Missverständnis von den KI Entwicklern und Anhängern,
die mittels
Mathematik Alles berechnen wollen.
Fakt ist, das am Ende immer nur ein Raum von 5 States übrig bleibt - sei
das Netz
auch noch so groß.

Und es fehlt vielen das abstrakte Denken.
Soll heißen: Die Entwickler können mit ihren Eigenen Daten nix anfangen.
Vielmehr plädiere ich zur Herannahme von visuellen Effekten.
Zum Beispiel das Galgenmännchen (Spiel):
* zuerst ist die Zentraleinheit zu schaffen (Kopf/Gehirn/Feste Synapsen),
  dann der Rest
* wenn man nun eine Anfrage stellt: "Beuge Hand", dann müsste es (wenn auch
  vorerst statisch) eine visuelle Animation abgespielt wird, an der man
erkennen
  kann, was passiert wann/wo...
* dann kann man ja den Weg der Synapsen verfeinern - oder addieren und
aufteilen
  in rechte und linke Seite ....
etc., pp.

Jens

Burkart

unread,
Dec 5, 2019, 4:44:44 PM12/5/19
to
Am 25.11.2019 um 10:42 schrieb Jens Kallup:
> Am 24.11.19 um 10:18 schrieb Burkart:
>> Die Frage ist dann, woher die Sätze kommen.
>> Dem Menschen werden sie ja auch nicht ins Gehirn eingepflanzt, sondern
>> er lernt sie irgendwie.
>> Sicher, bei einfachen Fakten wie "Paris ist Hauptstadt von Frankreich"
>> kann er dies (recht) unreflektiert 1:1 lernen, aber zumindest sollte
>> er schon wissen, was "Hauptstadt" usw. bedeutet.
>>
>> Überhaupt ist "bedeuten" bzw. "Bedeutung" ein sehr interessanter
>> Aspekt, der genauer zu untersuchen ist.
>> Meine Idee ist, dass die KI ein (oder ganz wenige) Kernziel(e)
>> implementiert bekommt wie "Mache das, was von dir erwartet wird"
>> (=erreiche die Ziele, die dir vorgelegt werden, soweit es geht) und
>> dass die KI daran Bedeutungen anhängen kann.
>> Wenn ich z.B. die KI anweise, von A nach B zu gehen und sie dies nicht
>> direkt kann, kann sie z.B. den Begriff "Hindernis" lernen.
>>
>> Ok, eine große Herausforderung wird sein, dass die KI uns Menschen
>> versteht (sollte sie also damit in unserer Welt "leben" müssen?),
>> damit sie die Bedeutung von "Hauptstadt" u.ä. überhaupt verstehen kann.
>> Insofern ist es sicher wichtig, ihr irgendwie grundlegendes Weltwissen
>> zukommen lassen zu können, nur das sinnvolle Wie und welches ist die
>> Frage.
>
> Hallo Burkart,

Hallo Jens,

> "Bedeutung" ist tatsächlich 1:1 - was soll ein Hund machen, wenn er von
> Dir ein
> Handzeichen sieht - oder laut wie "sitz" ?
> Da ist es auch "festes" Wissen, das dem Hund (KI) möglichst früh
> beigebracht
> werden muss -

einem Hund kann das gerne so klar beigebracht werden, aber das gilt ja
nicht für alle und nicht für jede Intelligenz. Der Mensch als KI-Vorbild
soll ja auch selbstständig denken lernen und nicht nur Befehle befolgen
können.

> ansonsten verfrikkelt man sich im Laufe der Entwicklung der KI.

Warum? Klar, am Anfang wird man die KI mit klaren Dingen füttern, aber
irgendwann soll sie auch komplizierte Dinge verstehen lernen.

> Mit heutigen Mitteln, kann man nur 5 States abarbeiten.

Was für 5 States?

> Wobei 2 Abgezogen werden müssen - für ein "überabzählbar Zeichen" sowie ein
> Data-Flag, also wohin und woher (0 1) die Daten gehen sollen.
> Womit wir dann wieder bei 3 States sind: JA - NEIN - VIELLEICHT.

Das ist eine mögliche Anzahl von logischen Werten, es gibt auch andere
wie z.B. "besser als/mehr".

> Das ist ein großes Missverständnis von den KI Entwicklern und Anhängern,
> die mittels
> Mathematik Alles berechnen wollen.

KI ist natürlich mehr als Mathematik, z.B. echter oder virtueller
Kontakt mit Welt(konzepten).

> Und es fehlt vielen das abstrakte Denken.
> Soll heißen: Die Entwickler können mit ihren Eigenen Daten nix anfangen.

Welchen "eigenen Daten"?

> Vielmehr plädiere ich zur Herannahme von visuellen Effekten.
> Zum Beispiel das Galgenmännchen (Spiel):
> * zuerst ist die Zentraleinheit zu schaffen (Kopf/Gehirn/Feste Synapsen),
>   dann der Rest
> * wenn man nun eine Anfrage stellt: "Beuge Hand", dann müsste es (wenn auch
>   vorerst statisch) eine visuelle Animation abgespielt wird, an der man
> erkennen
>   kann, was passiert wann/wo...
> * dann kann man ja den Weg der Synapsen verfeinern - oder addieren und
> aufteilen
>   in rechte und linke Seite ....
> etc., pp.

Visuelles bzw. überhaupt Wahrnehmungen sollten bei der KI spätestens bei
Roboter sicher auch eine wichtige Rolle spielen.

Gruß, Burkart

Hermann Riemann

unread,
Dec 23, 2019, 8:56:24 AM12/23/19
to
Mit Lisp kann man ein neuronales Netz programmieren.
Wie viele Neurone im menschlichen Gehirn sind bei der
Addition zweier vierstelligen Zahlen aktiv?

Ein neuronales Netz würde bei
/\
/ \
ein A auch bei fehlender waagrechter Linie als A erkennen.
Ein symbolisches System hätte da erhebliche Schwierigkeiten.

Folgerung Programm ( und eventuell hardware )
sollten den Aufgaben angepasst werden.

Verschiedene Verfahren sollten zusammenarbeiten.
Im menschlichen Gehirn gibt es für unterschiedliche Aufgaben
oft auch unterschiedliche Gehirnbereiche.

Was für Verfahren gilt, gilt auch für Sprache.
Beispiel: boolsche Algebra kennt keine Zwischenwerte
z.B. vom Typ Wahrscheinlichkeit.
Diverse mathematische Verfahren setzen Kenntnis über
Wahrscheinlichkeiten voraus. Sind diese Kenntnisse nicht vorhanden,
bleiben noch experimentelle ( evolutionäre ) Verfahren.

Derartige Wahrscheinlichkeiten kann man durch Werte 0<x<1 darstellen.
Mit zusätzlichen Attributen, die weitere Hinweise liefern.

Die kombinatorische Explosion kann man mit Beschränkungen
und "analoge" (Gleitkomma) Werte in etlichen Fällen steuern.

Begriffe und Daten sind ohen passende Programme nutzlose.
Wenn sich die Programme (teilweise) nur
im menschlichen Gehirn befinden ..

Eine echte Intelligenz entwickelt die Programme
( bedingte Abbildungsfolgen ) selber.

Hermann
der bei neuronalen Gewichte an Wahrscheinlichkeiten
und andere Steuerungen (z.B. Aufwand) denkt.

--
http://www.hermann-riemann.de

Hermann Riemann

unread,
Dec 23, 2019, 9:36:24 AM12/23/19
to
Am 24.11.19 um 10:18 schrieb Burkart:

> Insbesondere, wenn wir Menschen die Kontrolle über die KI haben wollen,
> ist das sinnvoll.

Wer ist wir?
Otto Normalverbrauchen mit Konsummaximierung?
Diverse Herrscher wie Trump, Putin, Xi, Erdogan ..?

> Ich sehe die KI als "Diener" (bzw. Werkzeug) des Menschen an,

Personen die mit KI und Werbung Menschen verführen,
sind zwar auch Menschen ..

> nicht als völlig eigenständige, völlig freie Kreatur;

Intelligenz ohne Eigenständigkeit dürfte nur schwach sein.

> immerhin wollen wir sie ja erschaffen zu unserem Nutzen.

Und Schaden von anderen?

Hermann
der nicht Menschen sondern einige ethische Grundsätze
wie z.B. Ehrlichkeit in relevanten Dingen
oben haben möchte.

--
http://www.hermann-riemann.de

Burkart

unread,
Dec 27, 2019, 7:23:14 AM12/27/19
to
Am 23.12.2019 um 15:36 schrieb Hermann Riemann:
> Am 24.11.19 um 10:18 schrieb Burkart:
>
>> Insbesondere, wenn wir Menschen die Kontrolle über die KI haben
>> wollen, ist das sinnvoll.
>
> Wer ist wir?

Natürlich eine berechtigte Frage.

> Otto Normalverbrauchen mit Konsummaximierung?

Konsummaximierung sollte es nicht unbedingt sein (lieber bessere
Qualität, mehr Sinnvolles), aber letztlich sollte schon jeder einzelne
Mensch von ihr profitieren, vielleicht ähnlich wie vom Internet.

> Diverse Herrscher wie Trump, Putin, Xi, Erdogan ..?

Das genau sollte man natürlich möglichst verhindern.
Es wäre z.B. schön, wenn KI Lügen aufdeckt und dies z.B. an(s)
Trump(eltier) direkt zurückspiegelt, vielleicht wird er dann etwas
einsichtiger (die Hoffnung stirbt zuletzt...).
Insofern wäre eine verstehende KI gut, die als Gegenintelligenz zu
solchen Menschen steht.

>> Ich sehe die KI als "Diener" (bzw. Werkzeug) des Menschen an,
>
> Personen die mit KI und Werbung Menschen verführen,
> sind zwar auch Menschen ..

Sicher, aber nur eher eine Minderheit. Und wenn die KI erstmal versteht,
dass Verführung von Menschen eigentlich schlecht ist, wird sie da
einfach nicht mitmachen :)

>> nicht als völlig eigenständige, völlig freie Kreatur;
>
> Intelligenz ohne Eigenständigkeit dürfte nur schwach sein.

Hm, was ist genau Eigenständigkeit? Aber ja, im gewissen Sinne sollte
sie schon frei denken können, aber nicht völlig uneingeschränkt handeln
(Risiko...) - na ja, Menschen können es letztlich ja auch nicht immer.

>> immerhin wollen wir sie ja erschaffen zu unserem Nutzen.
>
> Und Schaden von anderen?

Möglichst sollte Schaden natürlich nicht entstehen!? Natürlich lässt
sich das nicht immer verhindern bei widersprechenden Absichten u.ä.
-> Schadenminimierung irgendwie.

> Hermann
>    der nicht Menschen sondern einige ethische Grundsätze
>    wie z.B. Ehrlichkeit in relevanten Dingen
>    oben haben möchte.

Ethische Grundsätze sind ja von Menschen.
Klar, Ehrlichkeit, Transparenz u.ä. sind sicher oft hilfreich, sollten
aber letztlich dem Menschen (in seiner Mehrheit) dienen - also z.B.
keine Transparenz mit Datensammelei für mehr Werbung und Schlimmerem.
Auch Ehrlichkeit muss relativ gesehen werden, z.B. Schwindeln als
Selbstverteidigung u.ä.

Viele Grüße und guten Rutsch nach 2020 ggf. schon mal
Burkart

Hermann Riemann

unread,
Dec 28, 2019, 9:51:27 AM12/28/19
to
Am 27.12.19 um 13:23 schrieb Burkart:
> Am 23.12.2019 um 15:36 schrieb Hermann Riemann:
>> Am 24.11.19 um 10:18 schrieb Burkart:
>>
>>> Insbesondere, wenn wir Menschen die Kontrolle über die KI haben
>>> wollen, ist das sinnvoll.
>> Wer ist wir?
>> Otto Normalverbrauchen mit Konsummaximierung?

> Konsummaximierung sollte es nicht unbedingt sein (lieber bessere
> Qualität, mehr Sinnvolles),

Es gibt da noch den Spaßfaktor, der für einen erheblichen Anteil der
Menschen ( Mehrheit?) als Sinn gilt.


> aber letztlich sollte schon jeder einzelne
> Mensch von ihr profitieren,

Profit von einem bedeutet oft Profitverlust von anderen.


> vielleicht ähnlich wie vom Internet.

Influencer ..


>> Diverse Herrscher wie Trump, Putin, Xi, Erdogan ..?

> Das genau sollte man natürlich möglichst verhindern.

Durch Wahlen, Attentat oder wie?

> Es wäre z.B. schön, wenn KI Lügen aufdeckt und dies z.B. an(s)
> Trump(eltier) direkt zurückspiegelt,

Wie wäre es mit einer von Ki erzeugten Comic Figur
namens Trumpman, die sich wie Trump bewegt und ähnlich klingt,
und Sprüche wie heizen Sie mit Kohle, damit ihre Wäsche
schön weiß wird" von sich gibt.

>>> Ich sehe die KI als "Diener" (bzw. Werkzeug) des Menschen an,

>> Personen die mit KI und Werbung Menschen verführen,
>> sind zwar auch Menschen ..

> Sicher, aber nur eher eine Minderheit.

Das ist nicht anders als früher bei Religion.
Menschen orientieren sich meist eher an Schlüsselreize
( z.B. überzeugende Stimme .. )
als durch sachliche Überlegungen.

> Und wenn die KI erst mal versteht,
> dass Verführung von Menschen eigentlich schlecht ist, wird sie da
> einfach nicht mitmachen :)

Das hängt von den Motiven der KI ab.
Wenn sie menschenartig ist ..
Wenn Menschen verführt werden wollen ..

>
>>> nicht als völlig eigenständige, völlig freie Kreatur;
>>
>> Intelligenz ohne Eigenständigkeit dürfte nur schwach sein.
>
> Hm, was ist genau Eigenständigkeit?

Nach eigenen Überlegungen und/oder Bedürfnissen handeln.


> Aber ja, im gewissen Sinne sollte
> sie schon frei denken können, aber nicht völlig uneingeschränkt handeln
> (Risiko...) - na ja, Menschen können es letztlich ja auch nicht immer.

Es gibt physikalische Schranken ( z.B. Schwerkraft) ..

>>> immerhin wollen wir sie ja erschaffen zu unserem Nutzen.
>> Und Schaden von anderen?
> Möglichst sollte Schaden natürlich nicht entstehen!?

Schaden entsteht meistens.
Dann gibt es einen Nutzen Schaden Abwägung.

>> Hermann
>>     der nicht Menschen sondern einige ethische Grundsätze
>>     wie z.B. Ehrlichkeit in relevanten Dingen
>>     oben haben möchte.

> Ethische Grundsätze sind ja von Menschen.

Teils.
Einige ethische Grundsätze ( z.B. Familien und Revierverhalten)
ist genetisch schon im Tierstadium vorprogrammiert.

Anderes ist wie boolsche Algebra universell.
Z.B. das eigene Verhalten bestimmt auch mit,
wie man selber behandelt werden darf.


> Klar, Ehrlichkeit, Transparenz u.ä. sind sicher oft hilfreich, sollten
> aber letztlich dem Menschen (in seiner Mehrheit) dienen

Oder ausreichend intelligenter KI.
Ist die momentane stattfindende Zerstörung der Zivilisation eine
Dienstleistung an den Menschen?
( Klimaerwärmung, Bergbau, Vergiftung, Bevölkerungs- und Konsum Wachstum )

> - also z.B.
> keine Transparenz mit Datensammelei für mehr Werbung und Schlimmerem.

Sollen medizinische Daten gesammelt werden?

Hermann
der statt nach Mensch oder KI eher nach
Fähigkeiten und Sozialverhalten unterscheiden würde.

--
http://www.hermann-riemann.de

Burkart

unread,
Dec 29, 2019, 6:15:39 AM12/29/19
to
Am 28.12.2019 um 15:51 schrieb Hermann Riemann:
> Am 27.12.19 um 13:23 schrieb Burkart:
>> Am 23.12.2019 um 15:36 schrieb Hermann Riemann:
>>> Am 24.11.19 um 10:18 schrieb Burkart:
>>>
>>>> Insbesondere, wenn wir Menschen die Kontrolle über die KI haben
>>>> wollen, ist das sinnvoll.
>>> Wer ist wir?
>>> Otto Normalverbrauchen mit Konsummaximierung?
>
>> Konsummaximierung sollte es nicht unbedingt sein (lieber bessere
>> Qualität, mehr Sinnvolles),
>
> Es gibt da noch den Spaßfaktor, der für einen erheblichen Anteil der
> Menschen ( Mehrheit?) als Sinn gilt.

Es wäre mal interessant zu analysieren, wie hoch der Spaßfaktor ist (je
Mensch (psychologisch) wie auch über alle Menschen
(soziologisch/statistisch)), natürlich im übertragenen Sinne nicht als
Zahl, sondern in diverse Kriterien aufgeteilt, um z.B. Prioritäten zu
erkennen, z.B. wie egoistisch ein Mensch (wann) ist.

Sicher, Spaß darf nicht elimiert werden, aber vielleicht sollte man
gewissen Spaß, z.B. auch gewisse Tradtionen für höhere, wichtige Dinge
aufgeben.
Aktuell geht es um die Silvesterknallerei mit den Böllern und dem
Feinstaub u.ä., auch um andere Umwelt-Probleme (durch Fridays For Future
u.a.), aber Spaß im weiteren Sinne (im Gegensatz zur relativ objektiven
Vernunft), also z.B. religiöse Traditionen wie das Schächten sollten auf
dem Prüfstand stehen.

However, zurück zur KI:
Von mir aus kann jeder seine Spaß-KI bekommen, ähnlich wie heute die
Spiele auf dem Smartphone u.ä.
Viel wichtiger ist mir aber wirklich hilfreiche KI.

>> aber letztlich sollte schon jeder einzelne Mensch von ihr profitieren,
>
> Profit von einem bedeutet oft Profitverlust von anderen.

Oft, aber oft auch nicht.
Hier sind wir ja schon auf wirtschaftlicher, wenn nicht auf politischer
Ebene. Ideal fände ich, wenn die KI möglichst fair versucht zu sein,
soweit es halt geht; ggf. kann sich ja mit anderen kurzschließen für
eine möglichst gute Lösung, im Zweifelsfalle mit Menschen (einem
Schiedsgericht o.ä. notfalls).

>> vielleicht ähnlich wie vom Internet.
>
> Influencer ..

Ein paar Idioten wird es immer geben ;)
Im Ernst: KI soll natürlich kein Influencer sein, jedenfalls nicht
unsachlich.

>>> Diverse Herrscher wie Trump, Putin, Xi, Erdogan ..?
>
>> Das genau sollte man natürlich möglichst verhindern.
>
> Durch Wahlen, Attentat oder wie?

Ich hätte letzteres ja nicht vorzuschlagen gewagt, aber manchmal... ;)
Natürlich primär durch vernünftige Aufklärung der Menschen mit voller
Transparenz, Lügen unter Strafe stellen u.ä., also hinsichtlich aller
politischer Aspekte.

>> Es wäre z.B. schön, wenn KI Lügen aufdeckt und dies z.B. an(s)
>> Trump(eltier) direkt zurückspiegelt,
>
> Wie wäre es mit einer von Ki erzeugten Comic Figur
> namens Trumpman, die sich wie Trump bewegt und ähnlich klingt,
> und Sprüche wie heizen Sie mit Kohle, damit ihre Wäsche
> schön weiß wird" von sich gibt.

Das wäre sicher eine gute Idee. Lustig wäre auch eine entsprechende KI -
ok, die müsste schwach sein, denn starke ließe sich für so eine Figur
wohl nicht missbrauchen ;)

>>>> Ich sehe die KI als "Diener" (bzw. Werkzeug) des Menschen an,
>
>>> Personen die mit KI und Werbung Menschen verführen,
>>> sind zwar auch Menschen ..
>
>> Sicher, aber nur eher eine Minderheit.
>
> Das ist nicht anders als früher bei Religion.
> Menschen orientieren sich meist eher an Schlüsselreize
> ( z.B. überzeugende Stimme .. )
> als durch sachliche Überlegungen.

Vielleicht einfach deshalb, weil Lügen u.ä. zu sehr zugelassen und nicht
bestraft werden!? Man sollte die Fakten/Wahrheit(en) viel mehr in den
Vordergrund stellen.

>> Und wenn die KI erst mal versteht, dass Verführung von Menschen
>> eigentlich schlecht ist, wird sie da einfach nicht mitmachen :)
>
> Das hängt von den Motiven der KI ab.

KI soll grundsätzlich "pro Mensch" sein, also für alle Menschen (wenn
auch gerne mit Schwerpunkt auf einen/wenige als Vorbilder u.ä. wie
Eltern, Lehrer usw.).

> Wenn sie menschenartig ist ..
> Wenn Menschen verführt werden wollen ..

Verführung ist eben nicht für, sondern gegen Mensch.

>>>> nicht als völlig eigenständige, völlig freie Kreatur;
>>>
>>> Intelligenz ohne Eigenständigkeit dürfte nur schwach sein.
>>
>> Hm, was ist genau Eigenständigkeit?
>
> Nach eigenen Überlegungen und/oder Bedürfnissen handeln.

Eigene Überlegungen auf jeden Fall (soweit möglich), eigene Bedürfnisse
soweit sie auf ihrer grundlegenden Programmierung (wie "pro Mensch")
basieren, wie z.B. Aufklärung von Unklarheiten, viel Lernen usw.

>> Aber ja, im gewissen Sinne sollte sie schon frei denken können, aber
>> nicht völlig uneingeschränkt handeln (Risiko...) - na ja, Menschen
>> können es letztlich ja auch nicht immer.
>
> Es gibt physikalische Schranken ( z.B. Schwerkraft) ..

Genau.

>>>> immerhin wollen wir sie ja erschaffen zu unserem Nutzen.
>>> Und Schaden von anderen?
>> Möglichst sollte Schaden natürlich nicht entstehen!?
>
> Schaden entsteht meistens.

Wie "meistens"... Entweder bist du sehr pessimistisch oder definierst
"Schaden" sehr extrem!?

> Dann gibt es einen Nutzen Schaden Abwägung.

Natürlich kommt das immer mal wieder vor, klar, aber zumindest selten
sehr extrem/krass und damit schwierig.

>>> Hermann
>>>     der nicht Menschen sondern einige ethische Grundsätze
>>>     wie z.B. Ehrlichkeit in relevanten Dingen
>>>     oben haben möchte.
>
>> Ethische Grundsätze sind ja von Menschen.
>
> Teils.
> Einige ethische Grundsätze ( z.B. Familien und Revierverhalten)
> ist genetisch schon im Tierstadium vorprogrammiert.

Soll mir recht sein.

> Anderes ist wie boolsche Algebra universell.

Sie als solche als theoretisches Modell schon, aber nicht ihre
praktische Anwendung.

> Z.B. das eigene Verhalten bestimmt auch mit,
> wie man selber behandelt werden darf.

Teilweise; es gibt auch personbedingte Ausnahmen, z.B. bedingt durch
(s)einen Charakter oder gar Äußerlichkeiten (hübsch/hässlich o.ä.).
Ja, Menschen, Ethik u.ä. ist komplex, nicht einfach für KI.

>> Klar, Ehrlichkeit, Transparenz u.ä. sind sicher oft hilfreich, sollten
>> aber letztlich dem Menschen (in seiner Mehrheit) dienen
>
> Oder ausreichend intelligenter KI.

Wenn sie entsprechend akzeptiert ist, einverstanden.

> Ist die momentane stattfindende Zerstörung der Zivilisation eine
> Dienstleistung an den Menschen?
> ( Klimaerwärmung, Bergbau, Vergiftung, Bevölkerungs- und Konsum Wachstum )

Sicher nicht - eine überzeugende KI könnte der Menschheit sicher helfen,
halt z.B. gegen den Egoismus einer mächtiger Menschen.

>> - also z.B. keine Transparenz mit Datensammelei für mehr Werbung und
>> Schlimmerem.
>
> Sollen medizinische Daten gesammelt werden?

Da sollte man differenzieren. Grundsätzlich erstmal ja, sofern der
Mensch die Handlungshoheit über seine Daten hat (Ausnahme: Seuchengefahr
u.ä.), ansonsten nur anonymisiert (und nicht nur pseudonymisisert).

Bei aller Datensammelei ist ja die Frage, was mit ihnen geschieht oder
geschehen kann; das Sammeln selbst ist ja noch nicht das Problem, aber
möglicher Missbrauch, der klar unter Strafe gestellt werden sollte, aber
dazu ist die Politik nicht reif genug oder zu sehr von Lobby u.ä.
beeinflusst.

> Hermann
>    der statt nach Mensch oder KI eher nach
>    Fähigkeiten und Sozialverhalten unterscheiden würde.

Gerne, wenn wir denn soweit mit KI erstmal wären.

Gruß, Burkart

Hermann Riemann

unread,
Dec 30, 2019, 3:14:17 AM12/30/19
to
Am 29.12.19 um 12:15 schrieb Burkart:
> Teilweise; es gibt auch Personen bedingte Ausnahmen, z.B. bedingt durch
> (s)einen Charakter oder gar Äußerlichkeiten (hübsch/hässlich o.ä.).
> Ja, Menschen, Ethik u.ä. ist komplex, nicht einfach für KI.

Da war das Wort "mit".
Wenn ich freundlich bin, werde ich auch eher freundlich behandelt.
Wenn ich Druck ausübe ..


>>> Klar, Ehrlichkeit, Transparenz u.ä. sind sicher oft hilfreich,
>>> sollten aber letztlich dem Menschen (in seiner Mehrheit) dienen

>> Oder ausreichend intelligenter KI.

> Wenn sie entsprechend akzeptiert ist, einverstanden.

Vorsicht. KI Systeme könnten erheblich unterschiedlicher sein als es
Menschen sind.
Die Menge genetischer Vorlagen ..

Und dann gibt es Problem der Akzeptanz.
Ein gut dokumentiertes 3000 Zeilen Programm ist verständlich.
ein 300 000 Programm ..
KI kann man vielleicht mit einer einfacheren KI kontrollieren.
( Logisches lint .. )
Allerdings ist da nicht unbedingt alles erreichbar.
( geschützte Bereiche, per hardware oder über Befehlsemulation.)
> Sicher nicht - eine überzeugende KI könnte der Menschheit sicher helfen,
> halt z.B. gegen den Egoismus einer mächtiger Menschen.

Wer beherrscht (derzeit) wen?

Hermann
vermutend, dass sich KI selber gegen übertriebenen Egoismus
selber verteidigen muss.

--
http://www.hermann-riemann.de

Burkart

unread,
Jan 2, 2020, 5:51:19 PM1/2/20
to
Am 30.12.2019 um 09:14 schrieb Hermann Riemann:
> Am 29.12.19 um 12:15 schrieb Burkart:
>>>> Klar, Ehrlichkeit, Transparenz u.ä. sind sicher oft hilfreich,
>>>> sollten aber letztlich dem Menschen (in seiner Mehrheit) dienen
>
>>> Oder ausreichend intelligenter KI.
>
>> Wenn sie entsprechend akzeptiert ist, einverstanden.
>
> Vorsicht. KI Systeme könnten erheblich unterschiedlicher sein als es
> Menschen sind.
> Die Menge genetischer Vorlagen ..

Mag sein. Auch Menschen akzeptieren wir ja sehr unterschiedlich.
Vielen geben wir einen Vertrauensvorschuss; man kann nur hoffen, dass
das bei KI sich auch als sinnvoll herausstellen kann und nicht, daas man
den meisten erst einmal misstraut wie z.B. jeder Mail von einem
unbekannten Absender.

> Und dann gibt es Problem der Akzeptanz.
> Ein gut dokumentiertes 3000 Zeilen Programm ist verständlich.
> ein 300 000 Programm ..

Menschen können wir ja auch nicht 100%ig durchschauen; ich hoffe, dass
im Sinne des Turingtests bzw. ein Blackbox-Ansehen hinreichend ist i.a.

> KI kann man vielleicht mit einer einfacheren KI kontrollieren.
> ( Logisches lint .. )

Hm, was ist "(logisches) lint"?

> Allerdings ist da nicht unbedingt alles erreichbar.
> ( geschützte Bereiche, per hardware oder über Befehlsemulation.)

So wie man nicht einfach in den Kopf eines Menschen tief reinschauen kann.

>> Sicher nicht - eine überzeugende KI könnte der Menschheit sicher
>> helfen, halt z.B. gegen den Egoismus einer mächtiger Menschen.
>
> Wer beherrscht (derzeit) wen?

Na, ich denke doch, dass es die KI nicht ist, schlimmstenfalls die
Leute, die unsere Daten sammeln und missbrauchen.

> Hermann
>    vermutend, dass sich KI selber gegen übertriebenen Egoismus
>    selber verteidigen muss.

Wenn ihr das gelingt, um so besser.

Gruß, Burkart

Hermann Riemann

unread,
Jan 3, 2020, 11:56:50 AM1/3/20
to
Am 02.01.20 um 23:50 schrieb Burkart:

> Vielen geben wir einen Vertrauensvorschuss;

Z.B. in windows 95.

> man kann nur hoffen, dass das bei KI sich auch als sinnvoll herausstellen kann

Da gibt es jetzt schon Gegenbeispiele.
>> Und dann gibt es Problem der Akzeptanz.
>> Ein gut dokumentiertes 3000 Zeilen Programm ist verständlich.
>> ein 300 000 Programm ..

> Menschen können wir ja auch nicht 100%ig durchschauen;

Ein interessante Frage ist,
wer ist eher durchschaubar, ein Mensch oder eine starke ki?
>> KI kann man vielleicht mit einer einfacheren KI kontrollieren.
>> ( Logisches lint .. )

> Hm, was ist "(logisches) lint"?

lint prüft z.B, auf nicht initialisierte Variablen,
vielleicht auch auf einige statische array Grenzen.

Ein logisches lint könnte durch Simulation
weiter Fehler finden.
Eventuell auch einige malware, indem es IO analysiert.

>> Allerdings ist da nicht unbedingt alles erreichbar.
>> ( geschützte Bereiche, per hardware oder über Befehlsemulation.)

> So wie man nicht einfach in den Kopf eines Menschen tief reinschauen kann.

Reinschauen schon, allerdings Genauigkeit,
Datenmenge und fehlende Interpretationen ..

Der trace bei alten computer war leicht verfolgbar.
Ein heutiger Maschinentrace bei viel parallel Verarbeitung
oder gar NN dürfte nicht so einfach sein.
Wenn dann noch zufallsgenerierte Daten hinzukommen ..

>>> Sicher nicht - eine überzeugende KI könnte der Menschheit sicher
>>> helfen, halt z.B. gegen den Egoismus einer mächtiger Menschen.
>>
>> Wer beherrscht (derzeit) wen?

> Na, ich denke doch, dass es die KI nicht ist, schlimmstenfalls die
> Leute, die unsere Daten sammeln und missbrauchen.

Nicht nur. Eine Versicherung schätzt Schadensrisiko
und Zahlungsbereitschaft ab.
Investoren optimieren nach Gewinnaussichten
und Spekulationsmöglichkeiten..

Wie weit Krankenhäuser ihre Operationen an Patienten nach
kommerziellen Gesichtspunkten entscheiden ..

Hermann
der meint, nicht jedes intelligente Vorgehen (z.B.Gewinnoptimierung)
sei ohne Nebenwirkungen.

--
http://www.hermann-riemann.de

Hermann Riemann

unread,
Jan 3, 2020, 12:11:03 PM1/3/20
to
Am 15.11.19 um 00:29 schrieb Joachim Pimiskern:

> Erinnert an Deep Thought. Der war so intelligent,
> daß er die Existenz des Schokoladenpuddings
> und der Einkommensteuer auseinander ableitete,
> bevor es jemandem gelang, ihn abzuschalten
> (im Englischen rice pudding).

Man könnte ja auch etwas zur Logik überlegen.

Z.B. Vögel können fliegen.
=> Strauß und Küken sind keine Vögel.
und auch, wenn man nicht wie in Mathematik
(notwendig hinreichend) programmiert
=> Schmetterlinge können nicht fliegen.

Also den Umgang mit Indizien.

Hermann
der meint, das riskant abschätzbare Wahrscheinlichkeiten
( wie Wetter ) in der Realität häufiger vorkommmen,
als in Mathematik und Informatik.

--
http://www.hermann-riemann.de

Hermann Riemann

unread,
Jan 4, 2020, 9:12:13 AM1/4/20
to
Am 13.10.19 um 16:49 schrieb Burkart:

> Was sind für euch die zentrale Begriffe zu (einer (praktischen)
> Entwicklung) einer allgemeinen KI?

Was ist hier ein Begriff?
Vorgehensweise?

Beispiel Vögel können fliegen.
Ist Vogel ein Begriff?

Also
Nachtigall kann fliegen.
Amsel kann fliegen.
Rabe kann fliegen.

Gemeinsame Eigenschaft einiger Wesen: x kann fliegen.

Jetzt kann man für x ein Wort bzw Adresse bzw Begriff bilden.
Bei Kommunikation mit anderen Wesen kann Vogel oder
bird ( Vogel auf englisch ) verwendet werden.

Das Auffinden von Gemeinsamkeiten um später Rechenschritte zu ersparen
ist ein wesentlicher Teil von Intelligenz.
( Methode z.B. Suchen mit Rückwärtspointer,
bei Menschen Kurzzeiterinnerung )

Etwa welche Eigenschaften von Nachtigall lassen sich auf
lassen sich auf Amsel übertragen.
( Informationsreduktion z.B. gegen kombinatorische Explosion.)

> Das erste ist für mich das "Lernen", das zweite (wichtigere hinsichtlich
> *starker* bzw. *allgemeiner* KI)

Was ist der Unterschied zwischen *starker* und *allgemeiner* KI.

Mit starker KI wird oft oder immer wie menschliche Intelligenz gemeint.

Etwa der Art:
Mächtige Wesen ( Anführer) müssen versorgt werden.
Mächtige Wesen machen mächtige Vorgänge.
Sturm ist ein mächtiger Vorgang.
Also muss man das mächtigen Wesen ( mit Opfergaben) versorgen.


> ist für mit das "Verstehen".

Es gibt verschiedene Arten von "verstehen"

"Hol mir ein Eimer Wasser."
Verlangt zum Verstehen ein Erkennen von Elementen
und Ablauffolgen. ( schwache KI ?)

"Fliege in einem Eimer Wasser nach Tibet."
Intelligenz A ( mit schwacher KI ) kann das vergleichbar verstehen.

Intelligenz B ( Mensch ) ( mit starker KI?)
findet Eimer können nicht fliegen
und versteht: "Es geht nicht".

Intelligenz C ( konstruktive Intelligenz )
( einige Zwischenschritte weggelassen )
fliegen + Gegenstände verbunden mit Eigen oder Fremdantrieb
Tibet => weit weg => Flugzeug ( Schiff ..)
Ergebnis: der Eimer wird im Flugzeug nach Tibet transportiert.

Intelligenz D ( allgemein als konstruktiv + weiteres )
Aufwand hoch => Rückfrage

Die Intelligenzen haben die Anweisung unterschiedlich verstanden.

Zum finden und Auswerten gibt es Regelsysteme
wie weitermachen oder abbrechen ( Zufriedenheit )
Festhalten von Ergebnissen zwecks anwenden ..

Hermann
der ein paar Überlegungen zur KI präsentiert hat..

--
http://www.hermann-riemann.de

Burkart

unread,
Jan 11, 2020, 5:40:19 AM1/11/20
to
Am 04.01.2020 um 15:12 schrieb Hermann Riemann:
> Am 13.10.19 um 16:49 schrieb Burkart:
>
>> Was sind für euch die zentrale Begriffe zu (einer (praktischen)
>> Entwicklung) einer allgemeinen KI?
>
> Was ist hier ein Begriff?

Etwas, was nah an einem Wort ist, ich dachte z.B. ans "Lernen".

> Vorgehensweise?
>
> Beispiel Vögel können fliegen.
> Ist Vogel ein Begriff?

Klar, Vogel ist auch ein Begriff.

> Also
> Nachtigall kann fliegen.
> Amsel      kann fliegen.
> Rabe       kann fliegen.
>
> Gemeinsame Eigenschaft einiger Wesen: x kann fliegen.
>
> Jetzt kann man für x ein Wort bzw Adresse bzw Begriff bilden.
> Bei Kommunikation mit anderen Wesen kann Vogel oder
>  bird ( Vogel auf englisch ) verwendet werden.
>
> Das Auffinden von Gemeinsamkeiten um später Rechenschritte zu ersparen
> ist ein wesentlicher Teil von Intelligenz.

Richtig. Ohne Abstraktion kommt man nicht sinnvoll voran.

> ( Methode z.B. Suchen mit Rückwärtspointer,
>   bei Menschen Kurzzeiterinnerung )
>
> Etwa welche Eigenschaften von Nachtigall lassen sich auf
> lassen sich auf Amsel übertragen.
> ( Informationsreduktion z.B. gegen kombinatorische Explosion.)

Genau. Als beides Vögel würde ich erstmal alle grundlegenden
Eigenschaften übertragen, auch wenn man sich u.U. mal irrt (fliegen ->
Pinguin); die Ausnahmen muss man dann extra lernen.

>> Das erste ist für mich das "Lernen", das zweite (wichtigere
>> hinsichtlich *starker* bzw. *allgemeiner* KI)
>
> Was ist der Unterschied zwischen *starker* und *allgemeiner* KI.

"Strong AI" und "AGI" müssten synonym sein.

> Mit starker KI wird oft oder immer wie menschliche Intelligenz gemeint.

Sagen wir, die menschliche Intelligenz ist Vorbild; ganz identisch
sollen sie ja nicht gleich sein (müssen).

> Etwa der Art:
> Mächtige Wesen ( Anführer) müssen versorgt werden.

Soweit man denn sich durch ihn führen lassen möchte; gegnerische Clans
sehen es vermutlich anders.

> Mächtige Wesen machen mächtige Vorgänge.
> Sturm ist ein mächtiger Vorgang.
> Also muss man das mächtigen Wesen ( mit Opfergaben) versorgen.

Natürlich muss man (auch die KI) schon kritisch bleiben (sobald sie dazu
in der Lage/intelligenz genug ist); mein Vogel/Pinguin-Beispiel reicht
dazu ja auch schon.

>> ist für mit das "Verstehen".
>
> Es gibt verschiedene Arten von "verstehen"

Arten oder auch Komplexität.

> "Hol mir ein Eimer Wasser."
> Verlangt zum Verstehen ein Erkennen von Elementen
> und Ablauffolgen. ( schwache KI ?)

Genau, erstmal müssen Objekte u.ä. überhaupt erkannt werden können.

> "Fliege in einem Eimer Wasser nach Tibet."
> Intelligenz A ( mit schwacher KI ) kann das vergleichbar verstehen.

Das ist halt ein Beispiel, wo schwache KI nicht reicht.
Bei Kindern könnte ich mir vorstellen, dass sie einem Eimer gedanklich
Flügel verleihen, so dass er doch fliegen kann.

> Intelligenz B ( Mensch ) ( mit starker KI?)
> findet Eimer können nicht fliegen
> und versteht: "Es geht nicht".

So sollte es dann mal sein; ein kleines Kind wäre dann recht sachlich
und könnte gar als fantasielos bezeichnet werden ;)

> Intelligenz C ( konstruktive Intelligenz )
>  ( einige Zwischenschritte weggelassen )
> fliegen + Gegenstände verbunden mit Eigen oder Fremdantrieb
> Tibet  => weit weg => Flugzeug ( Schiff ..)
> Ergebnis: der Eimer wird im Flugzeug nach Tibet transportiert.

Das wäre eine kreative Anwort und wohl ein komplexeste.

> Intelligenz D ( allgemein als konstruktiv + weiteres )
> Aufwand hoch => Rückfrage

Ich finde, dass eine Rückfrage generell ein Grundaspekt einer KI sein
sollte, wenn sie etwas überhaupt nicht weiß oder herausbekommen kann (in
vernünftiger Zeit).
Also bei "Eimer kann nicht fliegen" sollte sie gleich stutzig werden und
zumindest feststellen, dass es so nicht geht, oder halt nachfragen, wie
das zu verstehen ist.

> Die Intelligenzen haben die Anweisung unterschiedlich verstanden.

Richtig, so wie Menschen (Kinder) auch z.T.
Es ist u.a. halt eine Frage des Intelligenz- (bzw. Wissens-)grades, was
eine KI schon kann.

> Zum finden und Auswerten gibt es Regelsysteme
> wie weitermachen oder abbrechen ( Zufriedenheit )
> Festhalten von Ergebnissen zwecks anwenden ..
>
> Hermann
>    der ein paar Überlegungen zur KI präsentiert hat..

Für Überlegungen sind wir hier :)
Viele Grüße
Burkart

Burkart

unread,
Jan 11, 2020, 5:51:02 AM1/11/20
to
Am 03.01.2020 um 17:56 schrieb Hermann Riemann:
> Am 02.01.20 um 23:50 schrieb Burkart:

>> man kann nur hoffen, dass  das bei KI sich auch als sinnvoll
>> herausstellen kann
>
> Da gibt es jetzt schon Gegenbeispiele.

Klar; hoffen wir halt, dass die KI eher positiv ist im Durchschnitt (was
immer das genau heiße).

>>> Und dann gibt es Problem der Akzeptanz.
>>> Ein gut dokumentiertes 3000 Zeilen Programm ist verständlich.
>>> ein 300 000 Programm ..
>
>> Menschen können wir ja auch nicht 100%ig durchschauen;
>
> Ein interessante Frage ist,
> wer ist eher durchschaubar, ein Mensch oder eine starke ki?

Ein Mensch ist ja nie ganz durchschaubar. Vermutlich ist das
durchschaubarer, was weniger komplex ist, weil man es leichter
nachvollziehen kann. Oder was ähnlicher dem Menschen ist wegen der
Gemeinsamkeiten von Durchschauer und Durchschautem.

>>> KI kann man vielleicht mit einer einfacheren KI kontrollieren.
>>> ( Logisches lint .. )
>
>> Hm, was ist "(logisches) lint"?
>
> lint prüft z.B, auf nicht initialisierte Variablen,
> vielleicht auch auf einige statische array Grenzen.

Ok, danke.

> Ein logisches lint könnte durch Simulation
> weiter Fehler finden.
> Eventuell auch einige malware, indem es IO analysiert.

Das erscheint mir recht technisch... bzw. was soll ein "logisches lint"
sein?

>>> Allerdings ist da nicht unbedingt alles erreichbar.
>>> ( geschützte Bereiche, per hardware oder über Befehlsemulation.)
>
>> So wie man nicht einfach in den Kopf eines Menschen tief reinschauen
>> kann.
>
> Reinschauen schon, allerdings Genauigkeit,
> Datenmenge und fehlende Interpretationen ..
>
> Der trace bei alten computer war leicht verfolgbar.
> Ein heutiger Maschinentrace bei viel parallel Verarbeitung
> oder gar NN dürfte nicht so einfach sein.
> Wenn dann noch zufallsgenerierte Daten hinzukommen ..

Klar, praktisch sind solch komplexen Systeme kaum noch 100% zu verstehen.

>>>> Sicher nicht - eine überzeugende KI könnte der Menschheit sicher
>>>> helfen, halt z.B. gegen den Egoismus einer mächtiger Menschen.
>>>
>>> Wer beherrscht (derzeit) wen?
>
>> Na, ich denke doch, dass es die KI nicht ist, schlimmstenfalls die
>> Leute, die unsere Daten sammeln und missbrauchen.
>
> Nicht nur. Eine Versicherung schätzt Schadensrisiko
> und Zahlungsbereitschaft ab.
> Investoren optimieren nach Gewinnaussichten
> und Spekulationsmöglichkeiten..
>
> Wie weit Krankenhäuser ihre Operationen an Patienten nach
> kommerziellen Gesichtspunkten entscheiden ..

Dann sind es primär immer noch die Menschen. Klar, wenn sie sich zu sehr
auf Daten verlassen und sie u.U. falsch interpretieren, ist das
problematisch. Aber Menschen fielen ja auch schon auf ELIZA rein, ob nun
bewusst oder nicht...

> Hermann
>    der meint, nicht jedes intelligente Vorgehen (z.B.Gewinnoptimierung)
>    sei ohne Nebenwirkungen.

Nebenwirkungen gibt es quasi immer, klar - ja auch schon z.B. bei
Handys, wenn mal wieder jemand zu laut rumquatscht...

Gruß, Burkart
Reply all
Reply to author
Forward
0 new messages