Neusinger

  • /
  • AiOrNotAi
  • /
  • #AiOrNotAi: Eine KI, die uns nicht vernichten wird

Neuigkeiten

#AiOrNotAi: Eine KI, die uns nicht vernichten wird

#AiOrNotAi: Ist es möglich, Superintelligenz sicher für die Menschheit zu trainieren?

 

Wir können nicht nachvollziehen, was genau in der Blackbox passiert, und daher auch nicht erklären, warum die KI eine Entscheidung trifft. Es gibt viele Experten, die an erklärbarer KI (XAI) arbeiten, aber die Ansätze zur Begründung der von der KI getroffenen Entscheidungen sind noch nicht sehr effektiv. 

 

Viele Menschen machen sich Gedanken darüber, wie der Mensch sich vor dem schützen kann, was er erschafft. Laut einer Untersuchung des „New Scientist“ betrachten viele Wissenschaftler eine 5%ige Wahrscheinlichkeit, dass eine Superintelligenz die Menschheit vernichten könnte. Es besteht noch kein Grund zur Panik, aber es ist wichtig, potenzielle Bedrohungen durch KI zu verstehen und Lösungen für diese Probleme zu finden.

 

 

“Ein Holz ist ein Holz.” Basierend auf der Beobachtung von 70.000 Stunden menschlichen Spiels trainierte OpenAI den Bot, der im Spiel Minecraft überleben und sich weiterzuentwickeln muss. Er war in der Lage, die notwendigen Techniken für das Jagen, Schwimmen und die Ressourcengewinnung zu erlernen, die Entwickler “belohnten” die KI des Agenten für “richtige” Aktionen. Eine der wichtigsten Aktivitäten im Spiel ist das Holzfällen, denn Holz ist eine wichtige Ressource in dieser fiktiven Welt. Dies führte dazu, dass der Bot irgendwann anfing, Holzhäuser zu zerstören, um seine Vorräte aufzufüllen, die er für die Entwicklung seiner Ein-Mann-Zivilisation benötigte. Dies hat natürlich bei anderen Projektbeteiligten zu Bedenken geführt.

 

Dieses Beispiel zeigt deutlich, dass Menschen, wenn KI zu einem vollwertigen Teil selbst einer vereinfachten Simulation der realen Welt wird, nicht nur über das Erreichen eines bestimmten Ergebnisses besorgt sind, sondern auch über die Art und Weise, wie dieses Ergebnis erreicht wurde. In solchen Fällen müssen beim Training der Modelle alle möglichen Szenarien ausgeschlossen werden, in denen die KI anderen Menschen schaden kann. Die Entwickler versuchten, der KI durch Benutzerfeedback beizubringen, andere Bewohner der virtuellen Welt nicht zu “stören”, aber dies erwies sich als weit weniger erfolgreich als die Festcodierung jeder einzelnen Aufgabe.

 

Anirudha Majumdar, Robotiker an der Princeton University in New Jersey, erklärt, dass KI ein hohes Maß an Unsicherheit braucht, um keine Bedrohung darzustellen. In einer Studie aus dem Jahr 2023 arbeitete Majumdars Gruppe mit dem Google DeepMind Robotik-Team zusammen. Gemeinsam entwickelten sie ein KI-System namens KnowNo. Sie führten Tests mit echten Robotern in einer Küche in den DeepMind-Büros in Mountain View, Kalifornien, durch. In einem Test sah der Roboter zwei Schüsseln auf der Arbeitsplatte stehen. Eine war aus Metall, die andere aus Plastik. Der Roboter wurde gebeten, die Schüssel in die Mikrowelle zu stellen. Der Roboter wurde von LLM angetrieben, und das Modell generierte mehrere Optionen, was der Roboter mit unterschiedlichen Vertrauenswerten tun könnte. Die zwei wahrscheinlichsten Varianten waren, eine Metallschüssel und eine Plastikschüssel in die Mikrowelle zu stellen, und der Roboter konnte sich nicht entscheiden, welche er nehmen sollte. Aus diesem Grund entschied er sich für eine doppelte Überprüfung und hat diese Frage mit dem Anfragender abgeklärt und die Küche explodierte nicht. Stellen Sie sich nun vor, es gäbe nur eine Metallschüssel, und der Roboter müsste nicht zweimal nachdenken.

 

Das Problem bei der sicheren Nutzung von KI ist ihr paradoxer Charakter: Der wirtschaftliche Nutzen von KI besteht darin, immer mehr Prozesse in der Wirtschaft zu automatisieren, doch je weniger KI “selbstsicher” ist und ihre nächsten Schritte mit dem Menschen abstimmt, desto safer ist sie. Wenn man der KI mehr Arbeits- und Lernaufgaben anvertraut, muss sie sich im Kontext gut auskennen. Je mehr sich dieser Parameter des Modells verbessert und je bessere Ergebnisse es produziert, desto schwieriger ist es zu erklären, wie es zu diesem Ergebnis kommt, und desto größer wird das Blackbox-Problem und desto unberechenbarer wird die KI. 

 

Wie dem auch sei, wenn die Menschheit die KI-Innovation weiterhin ernst nimmt, Gesetze für ihre Entwicklung und Anwendung schafft, XAI-Technologien entwickelt und hochwertige Daten zum Trainieren der Modelle verwendet, wird sie uns eher zu Wohlstand als zur Vernichtung führen. Der Schlüssel zum Erfolg ist das Gleichgewicht zwischen Effizienz und Sicherheit, und ich hoffe, dass wir es erreichen werden. 

 

Science News Explores 

 

New Scientist 

 

Intelligent Robot Motion Lab

 

Die Bilder wurden mit Dall-E erstellt 

Andere Nachrichten

C16CA2CC-9466-4EDD-817F-DC9517177781
#AiOrNotAi: Einer KI beibringen uns zu verstehen
#AiOrNotAi: Wie wichtig ist es für KI, Menschen zu verstehen? Ein Problem, das fast jeder schon einmal erlebt hat, dass KI sehr selbstbewusst Anweisungen geben kann, die eigentlich...
97217761-F2A7-4ABE-B475-574194FF91AB
#AiOrNotAi: Cheggs Anpassungsstrategien in der Ära der Künstlichen Intelligenz
#AiOrNotAi: Wird KI Chegg inc. retten oder zerstören?   Chegg Inc., ein Pionier im Bereich der Bildungstechnologie, erlebte im Jahr 2023 eine bemerkenswerte Zäsur. Die rasante Entwicklung...
D4A25091-86D1-41E3-9DB9-F1430698E9EA
#AiOrNotAi: Kann heute jeder Software Entwickler sein?
#AiOrNotAi: Wandel von der klassischen Programmierung hin zu anspruchsvolleren Tätigkeiten im Bereich der Softwareentwicklung und Künstlichen Intelligenz   Die Welt der Softwareentwicklung...
Nach oben scrollen