Idee und Inhalt meines Buches

"Jede entsprechend weit fortgeschrittene Technologie ist von Magie nicht zu unterscheiden" (Zitat von Arthur C. Clarke)


Diese Idee hat mich nicht mehr losgelassen bis ich schließlich damit begonnen habe ein Buch darüber zu schreiben. Es geht um virtuelle Welten, die so perfekt simuliert sind, dass sie von der realen Welt nicht mehr zu unterscheiden sind. Da in der virtuellen Welt alles möglich ist, gibt es in meinem Buch sowohl Zukunftstechnologie, wie sie in Science Fiction Romanen zu finden ist, als auch typische Fantasy Elemente wie Magie, Fabelwesen und Fantasiewelten.

In meinem Blog werde ich nicht nur über den Fortschritt meines Buches berichten, sondern auch allgemein zu SciFi und Fantasy Themen.

Gerne lasse ich mich hierbei von euch inspirieren.

Wer mag, kann mich gerne direkt kontaktieren: roy.ofinnigan@t-online.de

Diesen Blog durchsuchen

Samstag, 13. Januar 2018

Muss eine künstliche Intelligenz fühlen wie ein Mensch?




Muss bzw. soll eine künstliche Intelligenz Denken und fühlen wie ein Mensch, um uns zu verstehen?
Ich möchte hiermit die Frage zur Diskussion stellen.

Meiner Meinung nach muss sie das nicht. Ich weiß, dass viele anderer Meinung sind. Mir will das aber nicht so recht einleuchten.

Bei einem anderen Menschen wissen wir ja schließlich auch nicht, was genau in ihm oder ihr vor sich geht, wenn wir kommunizieren. Wir glauben natürlich, dass wir das wissen, weil wir von uns selbst ausgehen. Aber noch gibt es keine Möglichkeit herauszufinden ob der oder die Andere überhaupt etwas empfindet und wenn, ob er oder sie das genauso tut wie wir.

Was wirklich im Gehirn unserer Mitmenschen vor sich geht wissen wir (noch) nicht. Wir nehmen nur das Ergebnis war. Hauptsächlich unterbewusst. Unser Unterbewusstsein orientiert sich an der Körpersprache, der Stimme und möglicherweise noch an anderen Parametern, wie Pheromone und Veränderungen der Hautfarbe. Schauspieler machen sich das zunutze. Sie wissen ganz genau an welchen Schrauben sie bei sich drehen müssen und sind Meister darin uns Gefühle vorzutäuschen. Hier ein Beispiel:



Aus gutem Grund gibt es Schauspielschulen, wo man das lernen und perfektionieren kann. Manche unserer Mitmenschen machen instinktiv alles richtig und sind ähnlich gut wie Schauspieler. Praktisch jeder von uns ist Experte darin auf die Frage „wie geht es dir?“  ein glaubhaftes „sehr gut“ vorzutäuschen – egal wie schlecht es uns wirklich geht.

Damit will ich jedoch nicht unterstellen, dass wir ständig versuchen unseren Mitmenschen Gefühle vorzutäuschen. Ich will nur den Punkt herausstellen, dass es möglich ist. Oft lassen wir uns nur zu gern täuschen.

Wenn wir uns aber von anderen Menschen an der Nase herumführen lassen, warum soll das einer künstlichen Intelligenz nicht auch möglich sein?

Wie eine künstliche Intelligenz etwas leistet müssen wir nicht wissen. Wie bereits erwähnt, wissen wir es ja auch beim Menschen nicht wirklich. Leider sind die tief verschachtelten „Deep Learning“ Algorithmen so komplex, dass wir es vermutlich auch bei ihnen nie richtig verstehen werden. Obwohl es dort im Prinzip möglich ist, da – anders als bei Menschen - jedes „Neuron“ bzw. jeder Netzknoten auslesbar ist.
So oder so ist es wünschenswert, dass eine künstliche Intelligenz Gefühle erkennt und ausdrücken kann. Vorzugsweise überall dort, wo sie mit Menschen interagiert. Zum Beispiel für Anwendungen in der Pflege oder bei Chat-Bots.

Es gibt verschiedene tiefverschachtelte Neuronale Netzwerke, die man online nutzen und ausprobieren kann. Hier ein Beispiel von Microsoft („Projekt Oxford“) zum Stand der Technik.
Ich habe mir erlaubt diese KI mit einem Satz Bilder zu testen:

© ID 105399581 © Volodymyr Melnyk | Dreamstime.com

Hier das Ergebnis:


Die blauen Rahmen markieren die erkannten Gesichter. Das an sich wäre vor ein paar Jahren schon eine bemerkenswerte Leistung gewesen. Unter dem Gesicht steht, welchen Gefühlausdruck die künstliche Intelligenz erkannt hat. Die KI wurde trainiert folgende Emotionen zu erkennen:
Angst, Ekel, Freude, Trauer, Überraschung, Verachtung, Wut und neutraler Gesichtsausdruck

Oben steht, was eine menschliche Expertin auf diesem Gebiet (meine Freundin 😊 ) erkannt hat.
Okay, das Ergebnis ist noch Verbesserungswürdig. 

Hier ein typisches Bewertungsergebnis. Wie man sieht gibt die KI jeder Emotion eine Gewichtung. Bei diesem Beispiel sieht man, dass die Entscheidung für "Wut" knapp zuungunsten der Alternative "Ekel" ausgefallen ist. Es ist also keinesafalls so, dass eine auf neuronalen Netzen basierte KI nur schwarz-weiß Entscheidungen trifft.




Das ist also eine der Herausforderungen, die es für „deep learning“ KI noch zu meistern gilt. Ich bin überzeugt, dass das geschafft wird. Immerhin sind die aktuellen Algorithmen bereits in der Lage Gesichter oder Inhalte von Bildern genauso gut zu erkennen wie ein Mensch.

Noch ein Beispiel gefällig?
Hier ist eines für Automatisierte Bildbeschreibung:



NeuralTalk and Walk from Kyle McDonald on Vimeo.

Genauso, wie vielschichtige („tiefe“) Neuronale Netze lernen werden zuverlässig zwischen Freude und Trauer zu unterscheiden, werden sie auch lernen welche Reaktion auf eine bestimmte Emotion am besten geeignet ist.

Sobald es Trauer aus Gesichtern herauslesen kann, kann es Trauer auch auf einem künstlichen Gesicht – das kann zum Beispiel ein Avatar oder ein humanoider Roboter sein – übertragen.
Die entsprechenden Wortphrasen kann es natürlich auch lernen und zum Ausdruck bringen.


Und wie ist das mit der Intuition?

© Roy O'Finnigan

Das Brettspiel Go wird auf einem Brett mit 19 mal 19 Schnittpunkten, auf denen Steine platziert werden, gespielt. Bereits im ersten Zug stehen 361 Möglichkeiten zur Auswahl. Danach entsprechend weniger, was aber immer noch deutlich mehr ist als die durchschnittlich 30 bis 35 Zugmöglichkeiten beim Schach.

Mit der heutzutage verfügbaren Rechenleistung ist es unmöglich Stellungen zu bewerten indem man Züge vorausberechnet. Stellungen müssen deshalb – anders als beim Schach - intuitiv bewertet werden.

Genau das hat die künstliche Intelligenz „AlphaGo Zero“ gelernt. Sie kann in der Tat Stellungen intuitiv bewerten. Da es keinen adäquaten menschlichen Gegner gab spielte sie gegen sich selbst und wurde bei jedem Spiel ein bisschen besser. Nach drei Trainingstagen und 4,9 Millionen Spielen ließen die Entwickler AlphaGo Zero gegen seinen Vorgänger AlphaGo antreten. AlphaGo Zero gewann 100 von 100 Spielen.
Zur Erinnerung: AlphaGo schlug den besten menschlichen Spieler am 15. März 2016. Es gewann vier von fünf Spielen.

AlphaGo Zero entwickelte in drei Tagen Rechenzeit Strategien, die menschlichen Spielern in Jahrtausenden nicht in den Sinn gekommen waren. Und das ohne Vorkenntnisse und ohne menschliche Lehrer.

Zugegeben, das sind erst Anfänge und noch muss sich erst zeigen ob tief verschachtelte neuronale Netzwerke in der Lage sind mit der menschlichen Intuition auf anderen Gebieten gleichzuziehen oder sie sogar zu übertreffen.

Ich persönlich zweifle nicht daran.

So, und jetzt bin ich auf euer Feedback und Reaktionen gespannt.


foxload.com

Blogverzeichnis - Blog Verzeichnis bloggerei.de

Blogverzeichnis

Blog Top Liste - by TopBlogs.de







RSS Verzeichnis




Keine Kommentare:

Kommentar veröffentlichen

Virtual Space Composition

Virtual Space Composition
© Agsandrew | Dreamstime.com