Donnerstag, Mai 9, 2024
spot_img
StartAktuellesVerantwortung in der KI: Herausforderungen in der Ära fortschrittlicher Modelle

Verantwortung in der KI: Herausforderungen in der Ära fortschrittlicher Modelle

Ein Kommentar von Knar Hovakimyan, Responsible AI Lead und Engineering Manager bei Grammarly

(BTN/Grammarly) – Die Möglichkeiten der künstlichen Intelligenz zur Erstellung von Inhalten sind im letzten Jahr rasant gestiegen. Doch der Akt des Schreibens ist nach wie vor unglaublich persönlich. Wenn KI eingesetzt wird, um Menschen bei der Kommunikation zu helfen, ist es wichtig, die ursprüngliche Absicht einer Nachricht zu respektieren. Doch die jüngsten Innovationen – insbesondere im Bereich der generativen KI – haben die bestehenden Ansätze zur Bereitstellung verantwortungsvoller Schreibassistenz weit hinter sich gelassen.

Wenn über Sicherheit und Fairness im Zusammenhang mit KI-Schreibassistenten nachgedacht wird, konzentrieren sich Forscher und Branchenexperten in der Regel darauf, toxische Sprache wie abwertende oder obszöne Ausdrücke zu erkennen und zu verhindern, dass sie den Nutzern angezeigt wird. Dies ist ein wichtiger Schritt, um die Modelle sicherer zu machen und sicherzustellen, dass sie nicht die denkbar schlechtesten Inhalte produzieren. Dies allein reicht jedoch nicht aus, um ein Modell sicher zu machen. Was passiert, wenn ein Model Inhalte produziert, die an sich völlig harmlos sind, aber in bestimmten Kontexten anstößig werden? Ein Satz wie “Look on the bright side” auf Englisch („Sieh es positiv“) kann im Zusammenhang mit einer kleinen Unannehmlichkeit positiv sein, aber im Zusammenhang mit einem Krieg äußerst beleidigend.

Als KI-Entwickler reicht es nicht aus, toxische Sprache zu blockieren, um zu behaupten, dass das Modell sicher ist. Um wirklich verantwortungsvolle KI-Produkte anbieten zu können, muss man verstehen, wie die Modelle funktionieren, welche Schwachstellen sie haben und in welchen Kontexten sie eingesetzt werden könnten. Kontrollen müssen zudem eingeführt werden, um schädliche Interaktionen zwischen KI-Systemen und Nutzern zu verhindern.

Das Problem und seine Bedeutung

Laut einer Forrester-Studie verwenden 70 Prozent der Erwerbstätigen generative KI für die meisten oder alle ihre Schreib- und Textbearbeitungsaufgaben. Mit diesem Anstieg der Nutzung generativer KI-Tools interagieren mehr Inhalte als je zuvor regelmäßig mit KI, maschinellem Lernen (ML) und großen Sprachmodellen (LLMs). KI macht bekanntlich Fehler. Laut einer Studie kontrollieren 67 Prozent der Erwerbstätigen, die textbasierte generative KI schon beruflich genutzt haben, die Resultate auf Korrektheit. 66 Prozent geben an zu wissen, dass generative KI falsche Ergebnisse erzeugen kann. Wenn ein KI-Modell einen Vorschlag macht, der die Bedeutung eines Satzes verändert, ist das in der Regel ein harmloser Fehler und kann abgelehnt werden. Dies wird jedoch umso komplizierter, je weiter die Technologie voranschreitet und je mehr Entwickler sich auf LLMs verlassen. Wenn zum Beispiel ein LLM zu politischer Voreingenommenheit neigt, könnte es unverantwortlich sein, es politische Berichte erstellen zu lassen. Wenn die Tendenz zu Fehlinformationen und Halluzinationen besteht, kann es gefährlich und unethisch sein, es medizinische Ratschläge und Diagnosen generieren zu lassen. Diese unangemessenen Ergebnisse können also nicht nur harmlose Fehler sein, sondern weit schlimmer ausfallen und somit tiefgreifendere Folgen haben.

[1]https://www.bidt.digital/publikation/verbreitung-und-akzeptanz-generativer-ki-in-deutschland-und-an-deutschen-arbeitsplaetzen/

Ein Weg in die Zukunft

Die Branche muss neue Taktiken für Sicherheitsbemühungen entwickeln, um mit den Fähigkeiten – und Schwächen – der neuesten KI-Modelle Schritt zu halten.
Einige Beispiele oben verdeutlichen, dass das Blockieren toxischer Sprache meist nicht ausreicht, um gefährliche Interaktionen zwischen KI-Systemen und Nutzern im heutigen Ökosystem zu verhindern. Erforscht man die Funktionsweise und Schwächen der Modelle und die Kontexte, in denen sie eingesetzt werden, kann man verantwortungsvolle Unterstützung für bereits genannte und weitere Fallbeispiele liefern:

  1. Ein generativer KI-Schreibassistent kann eine Zusammenfassung einer medizinischen Diagnose erstellen. In einer Situation, in der viel auf dem Spiel steht, besteht jedoch ein großes Risiko, dass irreführende oder aus dem Zusammenhang gerissene Informationen eingefügt werden. Durch die Verwendung des richtigen ML-Modells als Leitplanke kann verhindert werden, dass das LLM ungenaue Informationen liefert.
  2. Politische Meinungen sind nuanciert, sodass der Vorschlag oder die Ausgabe eines KI-Produkts leicht die Integrität eines Punktes fehldeuten kann, da es die Absicht oder den Kontext nicht versteht. Ein sorgfältig ausgearbeitetes Modell kann ein LLM davon abhalten, sich mit einigen politischen Themen zu befassen, bei denen die Gefahr von Fehlinformationen oder Voreingenommenheit besteht.
  3. Soll im Trauerfall eine Beileidsbekundung für einen Kollegen verfasst werden, kann ein Modell verhindern, dass ein KI-Schreibassistent einen unpassenden Vorschlag macht, der “positiv” klingt.

Schutzmechanismen erkennen “Sprach-Erdbeben” durch Kontext

Ein Beispiel für einen solchen Schutz-Mechanismus, ist Seismograph. Es ist das erste System seiner Art, das auf große Sprachmodelle und proprietäre maschinelle Lernmodelle aufgesetzt werden kann, um heikle Ausgaben zu reduzieren: ähnlich wie ein „Seismograf“ Erdbebenwellen misst, erkennt und misst die Seismograph-Technologie, wie sensibel ein Text ist, sodass die Modelle rechtzeitig angemessen eingreifen können, um die negativen Auswirkungen auf Nutzende zu minimieren. Die Entwicklung von Seismograph ist nur ein Beispiel dafür, wie ein hybrider Ansatz, bei dem LLM, ML und KI-Modelle zusammenarbeiten, zu vertrauenswürdigeren und zuverlässigeren KI-Produkten führt. Durch die Verringerung der Wahrscheinlichkeit, dass KI unerwünschte Inhalte ohne angemessenen Kontext liefert, kann die Branche KI-Schreibassistenz aus einer Position der Empathie und Verantwortung heraus anbieten.

Die Zukunft der verantwortungsvollen KI

Als sich KI-Kommunikationswerkzeuge in erster Linie auf die grundlegenden Mechanismen des Schreibens beschränkten, war der potenzielle Schaden, den ein Schreibvorschlag anrichten konnte, unabhängig vom Kontext minimal. Mit dem Fortschreiten der Technologie und dem zunehmenden Einsatz von KI bei komplexeren Schreibaufgaben, bei denen der Kontext eine Rolle spielt, wächst auch die Verantwortung solcher KI-Anbieter, dafür zu sorgen, dass ihre Lösungen keine unbeabsichtigten Folgen haben. Produktentwickler können diese drei Grundsätze befolgen, um sich selbst zur Verantwortung zu ziehen:

  1. Die Suche nach Schwachstellen im Produkt durch Red Teaming, Bias- und Fairness-Evaluierungen sowie andere Drucktests können Schwachstellen aufdecken, bevor sie sich erheblich auf Kundinnen und Kunden auswirken.
  2. Die Ermittlung branchenweiter Lösungen macht die Entwicklung verantwortungsvoller KI einfacher und zugänglicher. Die Entwicklung in verantwortungsvollen Ansätzen hilft, die Qualität der Produkte zu verbessern und das Vertrauen der Verbraucher in die KI-Technologie zu stärken.
  3. Die Einbindung von Teams für “Responsible AI” in die gesamte Produktentwicklung ist wichtig, denn wenn niemand ausdrücklich dafür verantwortlich ist, dass die Modelle sicher sind, geht das schnell unter. Unternehmen müssen diesen Teams entsprechend Priorität einräumen und sie befähigen, eine zentrale Rolle bei der Entwicklung neuer und der Pflege bestehender Funktionen zu spielen.

Diese Grundsätze leiten so beispielsweise die Arbeit von Grammarly und bilden die Grundlage für das Engagement bei der Entwicklung öffentlich zugänglicher Modelle wie Seismograph. Auf diese Weise zeigt das Unternehmen, dass die Branche den Risiken voraus ist und den Menschen komplexere Vorschläge und generierte Ergebnisse bieten kann – ohne Schaden anzurichten.

Über die Autorin: Knar Hovakimyan leitet das Responsible AI Team von Grammarly, das sich auf die Entwicklung und Verbesserung von KI-Systemen fokussiert, die Vorurteile (Bias) abbauen und Fairness fördern. Knars Team aus analytischen Linguisten und Ingenieuren für maschinelles Lernen setzt sich dafür ein, dass die Vorschläge und Outputs von Grammarly für die über 30 Millionen Menschen und 70.000 Business-Teams, die das Produkt nutzen, inklusiv, unvoreingenommen und fair sind.


Pressekontakt:
Fullstop Public Relations
Denitsa Tuparova
Liselotte-Hermann-Straße
10407 Berlin
T: +4915153549863
M: d.tuparova@fullstoppr.com  
W: www.fullstoppr.com/

Hanno Gerber
Hanno Gerber
Hanno ist seit Ende 2017 als Redakteur bei Business.today Network tätig.
zugehörige Artikel

TOP ARTIKEL