Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

sehen lernen

14 views
Skip to first unread message

Jens Kallup

unread,
Jul 13, 2020, 2:25:27 AM7/13/20
to
Hallo,

wie bringt man eigentlich dem Computer sehen bei?
In den 1970er Jahren hatte ja schon ein Teenager
im Alter von 16 oder 18 Jahren gezeigt, dass es
mit den vorhandenen Möglichkeiten, das abscannen
von Buchstaben, das auch unter dem Verfahren OCR
bekannt ist, mit Hilfe der Programmiersorache LISP
möglich ist.

Einige Jahre zuvor hatte ja so ein amerikanischer
Programmierer gezeigt, das sein Programm "denken"
nachempfinden kann; besser bekannt auch unter dem
Namen "Klötzchengrafik" oder "KLötzchenwelt".

Dazwischen wurden dann Experimente mit Videos ge-
macht, in denen Klötzchen-Videos analysiert wurden.

Aber diese waren immer nur in Hochauflösenden
320 x 200 x 16 Pixel/Farben.
Also von der Heutigen Sicht der Datenmengen her
eher primitiv.

Dann kammen ja die Simulatoren, auf den von der
Rückseite ein seitenverkehrtes Bild projektziert
wurde, und in einer Kabine - ich sag jetzt mal naiv
LKW-Kabine einfach nur ein Lenk-Rad als Joystick
und eins, zwei Knöpfe für die Steuerungseinheit be-
nutzt wurden, um mit einen Computer, der auf Aktionen
darauf wartete, und die dann auf dem Projekter auf
die Leinwand projektzierte.

Einige Jahre später kamm ja Einer wieder auf die
glänzende Idee, mit Hilfe einer Videokamera die
Position eines leuchtenden Balles, uns Kiste zu be-
stimmen.

Aber von Denken im Sinne von "Was mach ich da eigent-
lich?" ist da sicherlich nicht die Rede gewesen.

An Menti:
Hier im thüringenschen Nordhausen gibt es eine Marke
mit dem Namen Doppelkorn.
Manchmal kommt da auch eine Werbung im lokalen Fernsehn,
bei dem das Maskotjen "Das Huhn Henriette" sich den Weg
zum Getränk "erpickt", indem es den Weg folgt, auf dem
Getreide Körner ausgelegt ist.

Was sieht denn eigentlich das Hunh, wenn es:
a) auf einen wei0en Boden Körner bemerkt, oder
b) was sieht das Huhn auf einer Pflasterstraße?
sind das dann für das Huhn riesengroße Lekkerie in
Form von rie0en großen Getreide Häppchen - oder kann
es zwischen Pflastersteinen oder andere Formen
unterscheiden?

Ich denke mal, man sollte die AI nicht so hoch ansetzen.
Und vielmehr von kleinen Dingen ausgehen.

Es würde mich ja schon reichen, wie die OCR ganz allgemein
betrieben wird.
Da könnte man ja mal versuchen -ich schlage vor mit LISP-
ein Testprogramm zu Erzeugen, das dann später mit anderen
Programmen interargiert.

Ich bin ja auch der Meinung, dass AI sich aus mehreren
kleinen Programmen und/oder Programmiersorachen zusammen
setzt.

Aber die dringenste Frage stellt sich mir:

"Woher nehmen wir die Energie, die wir benötigen, um einen
Text wie diese E-Mail zu schreiben, und zeitgleich die
Tasten, ohne jetzt ständig auf die Tastatur zu blicken
herbekommen/nehmen ?"

Gruß, Jens

Joachim Pimiskern

unread,
Jul 13, 2020, 9:13:08 AM7/13/20
to
Am 13.07.2020 um 08:25 schrieb Jens Kallup:
> wie bringt man eigentlich dem Computer sehen bei?

Kommt drauf an. Auf die Klasse von Bildern.
Es gibt nicht die universelle Lösung, sondern man
hat ein Sammelsurium ("Framework") von Tools.
Schau mal OpenCV an.

> Es würde mich ja schon reichen, wie die OCR ganz
> allgemein betrieben wird.

OCR heißt Optical Character Recognition. Da geht
es um geschriebene Zeichen. Das geht ganz gut
mit Histogrammen. Man kann z.B. die Winkel der
Normalenvektoren der Umrisse zählen. Ähnliche
Zeichen führen zu ähnlichen Histogrammen.

In einer Datenbank hat man Referenz-Histogramme
gemeinsam mit den zugehörigen Zeichen-Bedeutungen
hinterlegt. Um ein Zeichen zu erkennen, sucht
man das ähnlichste Histogramm und liefert dann
dessen Bedeutung als Ergebnis, z.B. "A".

Grüße,
Joachim
0 new messages