Neusinger

  • /
  • AiOrNotAi
  • /
  • #AiOrNotAi: Einer KI beibringen uns zu verstehen

Neuigkeiten

#AiOrNotAi: Einer KI beibringen uns zu verstehen

#AiOrNotAi: Wie wichtig ist es für KI, Menschen zu verstehen?

 

Ein Problem, das fast jeder schon einmal erlebt hat, dass KI sehr selbstbewusst Anweisungen geben kann, die eigentlich nicht effektiv sind. Die derzeit verfügbaren Technologien sind nicht in der Lage, eine schlecht gestellte Frage oder eine überzogene Formulierung zu erkennen – stattdessen versuchen sie, den Nutzer trotzdem zufrieden zu stellen. Die Anwendung von immer mehr KI-Modellen bei der Arbeit, beim Lernen und in anderen fehleranfälligen Lebensbereichen macht ein wichtiges Problem deutlich: Die KI hat zwar gelernt, ähnlich zu denken wie wir, aber sie weiß immer noch nicht, wie man menschlich ist, und kann die Irrationalität des unseren Verhaltens nicht erfassen.

 

Da die primäre wirtschaftliche Funktion der KI darin besteht, den Benutzer bei seiner Arbeit zu unterstützen, könnte die Entwicklung von Technologien, die der KI ein gutes Verständnis der menschlichen Irrationalität vermitteln, einen echten Mehrwert schaffen. Stellen Sie sich eine KI vor, die versteht, wann die Wahrscheinlichkeit eines menschlichen Fehlers geringer oder höher ist, und ihre Leistung entsprechend anpasst oder dem Nutzer hilft, sich auf das Wesentliche zu konzentrieren.

 

 

Wissenschaftler haben versucht, künstliche Intelligenzen darauf zu trainieren, suboptimales menschliches Verhalten zu verstehen, indem sie von einer bedingten 100-prozentigen Effizienz ausgehen und annehmen, dass menschliche Entscheidungen typischerweise leicht darunter liegen. Dieser Ansatz hat sich jedoch als nicht besonders effektiv erwiesen, da die Suboptimalität menschlicher Entscheidungsfindung nicht auf einen einzigen konstanten Wert reduziert werden kann. Menschen zeigen in ihrer Entscheidungsfindung eine große Variabilität, die sich nicht einfach durch einen festen Effizienzkoeffizienten abbilden lässt.

 

Forscher des MIT und der University of Washington haben eine Methode entwickelt, um das Verhalten eines Agenten zu modellieren und dabei die unbekannten rechnerischen Einschränkungen zu berücksichtigen, die die Problemlösungsfähigkeiten des Agenten beeinträchtigen können.

 

Ihr Modell ist in der Lage, automatisch auf die rechnerischen Einschränkungen eines Agenten zu schließen, indem es nur einige wenige Spuren seiner früheren Handlungen betrachtet. Das Ergebnis, das so genannte “Inferenzbudget” eines Agenten, kann verwendet werden, um das zukünftige Verhalten des Agenten vorherzusagen.

 

 

Das Schachspiel war einer der Bereiche, in denen das Konzept des “Inferenzbudgets” untersucht wurde. In diesem Zusammenhang veranschaulicht der Begriff, dass jeder Spieler nur über eine begrenzte Menge an Zeit und kognitiven Ressourcen verfügt, um mögliche Züge zu analysieren. Während einer Schachpartie beispielsweise bestimmt das Inferenzbudget eines Spielers die Tiefe und Breite seiner Zuganalyse. In einfacheren Stellungen kann ein Spieler weniger von seinem Budget verwenden und sich schnell für einen Zug entscheiden. In komplexeren Stellungen muss ein Spieler jedoch mehr von seinem Budget aufwenden, um verschiedene Möglichkeiten und Konsequenzen in Betracht zu ziehen, und braucht daher länger, um eine Entscheidung zu treffen. Dieses Modell hilft dabei, das Verhalten eines Spielers auf der Grundlage der Zuweisung seiner Inferenzressourcen zu verstehen und vorherzusagen, wobei es sich eng an seine strategische Planung und die Anforderungen des Spiels anpasst.

 

“Wenn wir wissen, dass ein Mensch im Begriff ist, einen Fehler zu machen, weil wir gesehen haben, wie er sich zuvor verhalten hat, könnte der KI-Agent eingreifen und einen besseren Weg vorschlagen, es zu tun. Oder der Agent könnte sich an die Schwächen seiner menschlichen Nutzer anpassen. Die Fähigkeit, menschliches Verhalten zu modellieren, ist ein wichtiger Schritt auf dem Weg zur Entwicklung eines KI-Agenten, der dem Menschen tatsächlich helfen kann”. – fasst Athul Paul Jacob, der Autor der Studie, zusammen.

 

MIT News

 

Die Bilder wurden mit Dall-E erstellt 

Andere Nachrichten

4579F9EB-5EC2-4969-8133-9804F4E104EF
#AiOrNotAi: Eine KI, die uns nicht vernichten wird
#AiOrNotAi: Ist es möglich, Superintelligenz sicher für die Menschheit zu trainieren?   Wir können nicht nachvollziehen, was genau in der Blackbox passiert, und daher auch nicht erklären,...
97217761-F2A7-4ABE-B475-574194FF91AB
#AiOrNotAi: Cheggs Anpassungsstrategien in der Ära der Künstlichen Intelligenz
#AiOrNotAi: Wird KI Chegg inc. retten oder zerstören?   Chegg Inc., ein Pionier im Bereich der Bildungstechnologie, erlebte im Jahr 2023 eine bemerkenswerte Zäsur. Die rasante Entwicklung...
D4A25091-86D1-41E3-9DB9-F1430698E9EA
#AiOrNotAi: Kann heute jeder Software Entwickler sein?
#AiOrNotAi: Wandel von der klassischen Programmierung hin zu anspruchsvolleren Tätigkeiten im Bereich der Softwareentwicklung und Künstlichen Intelligenz   Die Welt der Softwareentwicklung...
Nach oben scrollen