[Interview] „ Bixby wird als Geräteagent eine Schlüsselrolle für jedes Samsung Gerät spielen ” – Jisun Park, Leiter der Abteilung für Sprach-AI
Mit dem Fortschritt von AI entwickeln sich mobile Erlebnisse rasch über die einfache Ausführung von Befehlen hinaus. Es entsteht ein neues Paradigma der AI-Agenten, die Absichten und Kontexte verstehen, um autonom für Nutzer:innen zu handeln.
Inmitten dieses Wandels hat Samsung Electronics Bixby an der Spitze positioniert. Mit seiner offiziellen Einführung am 31. März hat sich Bixby von einem Sprachassistenten zu einem „Geräteagenten“ entwickelt – fähig, den Gerätekontext zu verstehen, Funktionen zu verknüpfen und komplexe Aufgaben im Namen der Nutzer:innen auszuführen[1]. Mit intuitiver Steuerung durch natürliche Sprache bietet Bixby personalisierte Lösungen basierend auf dem Gerätestatus sowie nahtlosen Zugriff auf webbasierte Informationen innerhalb eines einzigen Gesprächsablaufs.
Was macht Bixby also zu mehr als nur einem Sprachassistenten? Jisun Park, Corporate Executive Vice President und Leiter des Language AI Teams im Mobile eXperience (MX) Business von Samsung Electronics, erklärt es.

Jisun Park, Corporate Executive Vice President und Leiter des Language AI Teams im Mobile eXperience (MX) Business bei Samsung Electronics.
Was hat sich beim neuen Bixby im Vergleich zu früher geändert?
Bixby hat sich zu einem leistungsfähigeren Geräte-Agenten entwickelt, der über einen herkömmlichen Assistenten hinausgeht. Es ist für das jeweilige Gerät der Nutzer:innen optimiert und versteht den Gerätestatus und die Funktionen genau, um relevantere Antworten und maßgeschneiderte Lösungen zu liefern. Dank eines verbesserten Verständnisses natürlicher Sprache ermöglicht es zudem eine intuitivere und nahtlosere Gerätesteuerung.

Jisun Park fragt Bixby in natürlicher Sprache, welche Geräteeinstellungen angepasst werden müssen, um die Augen zu entlasten.
Was sind einige der wichtigsten Neuerungen, die Nutzer:innen vom neuen Bixby erwarten können?
Die auffälligste Verbesserung ist, wie intuitiv die Gerätesteuerung geworden ist.
Bixby versteht die Absicht der Nutzer:innen und empfiehlt die am besten geeigneten Einstellungen oder Funktionen, sodass das Navigieren durch Menüs oder das Wissen um genaue Funktionsnamen entfällt. Nutzer:innen können einfach in natürlicher Sprache beschreiben, was sie möchten.
Wenn Nutzer:innen beispielsweise sagen: „Mache meinen Bildschirm nur für mich sichtbar“, aktiviert Bixby die Funktion „Privacy Display“.[2]
Bixby kann auch Fragen zum Gerät beantworten und auf der Grundlage der aktuellen Einstellungen personalisierte Lösungen anbieten – im Grunde genommen ein Servicezentrum für die Hosentasche. Wenn Sie beispielsweise fragen: „Meine Augen sind müde – wie kann ich den Bildschirm augenschonender gestalten?“, empfiehlt Bixby Ihnen sofort die Funktion „Augenschutz“ und aktiviert sie.
Nutzer:innen können Antworten und Lösungen erhalten, indem sie einfach während eines Gesprächs Fragen stellen, ohne Einstellungen durchsuchen oder separate Apps wie einen Browser oder Karten öffnen zu müssen.
Darüber hinaus ist Bixby nicht mehr auf gerätebezogene Anfragen beschränkt. Es kann nun Webinformationen in Echtzeit analysieren und relevante Antworten liefern. Wenn Nutzer:innen beispielsweise fragen: „Empfiehl mir drei Restaurants in Wien für eine vierköpfige Familie“, erhalten sie die Ergebnisse direkt im Gespräch.
So können Nutzer:innen ganz natürlich Folgefragen stellen und die benötigten Informationen erhalten, ohne den Gesprächsfluss zu unterbrechen oder den Kontext zu wechseln.
Was war die größte Herausforderung beim Bixby-Update?
Der größte Aufwand floss in die Neugestaltung der Bixby-Architektur von einer befehlsbasierten zu einer agentenbasierten Architektur, wodurch Bixby die Absichten der Nutzer:innen besser verstehen und optimale Ergebnisse liefern kann.
Zuvor klassifizierte Bixby Benutzereingaben und führte Aufgaben auf der Grundlage voreingestellter Szenarien aus. Jetzt, mit einem LLM als Kern, kann es Absichten flexibler interpretieren und eigene Ausführungspläne erstellen.
Genauer gesagt haben wir einzelne Funktionen in aufrufbare Agenten umgewandelt und sie so definiert, dass das LLM sie bei Bedarf aufrufen kann. Dadurch kann das System mehrere Funktionen und APIs kombinieren, um Aufgaben sinnvoller zu erledigen, was über das einfache Verstehen natürlicher Sprache hinausgeht.
Infolgedessen verarbeitet Bixby nun komplexe, mehrstufige Anfragen natürlicher und mit besserem Kontextbewusstsein, einschließlich Szenarien, die zuvor schwer zu verarbeiten waren.

Jisun Park erläutert den Prozess, durch den Bixby zu einem Geräte-Agenten mit LLM als Kern wurde.
Gibt es einen besonders einprägsamen Moment während der Entwicklung?
Besonders einprägsam war die Verbesserung der Leistung in der koreanischen Sprache.
Da Bixby mehrere Sprachen unterstützt, ist es wichtig, eine konsistente Leistung über alle Sprachen hinweg sicherzustellen. Koreanisch ist aufgrund seiner sprachlichen Komplexität in LLM-Umgebungen als besonders herausfordernd bekannt. Die Wortformen variieren stark aufgrund eines reichhaltigen Systems von Artikeln und Endungen, und die flexible Wortstellung bedeutet, dass sich die Bedeutung je nach Kontext erheblich verschieben kann – was es für Modelle schwierig macht, Satzstruktur und Semantik zuverlässig zu interpretieren.
Zu einem bestimmten Zeitpunkt stagnierten die Leistungskennzahlen für Koreanisch über einen längeren Zeitraum, und das gesamte Team verbrachte viele Stunden damit, verschiedene Ansätze zu testen. So verfeinerten wir beispielsweise den Trainingsansatz des LLM-basierten Modells, um den sprachlichen Besonderheiten des Koreanischen besser Rechnung zu tragen, passten die Modellarchitektur an und verstärkten das kontextbasierte Lernen, um das Kontextverständnis zu verbessern.
Allerdings war der Prozess alles andere als einfach. Es gab Momente der Frustration, in denen selbst unsere vielversprechendsten Ansätze nicht immer zum Erfolg führten. Doch schließlich gelang es, die ursprünglichen Leistungsziele für Koreanisch deutlich zu übertreffen.
Das war der Moment, in dem das gesamte Team wirklich davon überzeugt war – dieser neue Bixby wird wirklich etwas besonderes.
Welche Rolle wird Bixby bei Samsungs Übergang in das Zeitalter der agentenbasierten AI spielen?
Bixby wird als Geräteagent eine Schlüsselrolle spielen und Nutzer:innen zu helfen, einfacher auf Samsung-Geräte zuzugreifen und deren Potenzial voll auszuschöpfen.
Im Kern geht es bei agentenbasierter AI darum, Absichten und Kontexte zu verstehen, um Aufgaben autonom im Namen der Nutzer:innen auszuführen und so alltägliche Erfahrungen einfacher und bequemer zu gestalten. Damit will Samsung die breite Akzeptanz von AI beschleunigen und sie letztendlich nahtlos in den Alltag integrieren, ähnlich wie unverzichtbare Infrastruktur.
Mit Bixby können Nutzer:innen eine Vielzahl von Galaxy-AI-Funktionen entdecken und nutzen[3], ohne technisches Fachwissen zu benötigen. Auf diese Weise senkt Bixby die Hemmschwelle gegenüber AI und hilft mehr Menschen, AI-Erlebnisse in ihrem Alltag zu genießen.

Jisun Park spricht mit dem Galaxy S26 Ultra, um die neuen agentischen Fähigkeiten von Bixby zu demonstrieren.
Bixby wird nun über die Galaxy-Mobilgeräte hinaus auf andere Samsung-Geräte ausgeweitet. Können Sie uns mehr darüber erzählen?
Bixby ist bereits auf einer Reihe von Samsung-Geräten außerhalb des Galaxy-Ökosystems verfügbar und bietet Nutzer:innen zusätzlichen Komfort.
Diese Weiterentwicklung von Bixby wird nun schrittweise auf weitere Produkte ausgeweitet, sodass Samsung-Nutzer:innen mehrere Geräte im ganzen Haus einfacher steuern können.
Durch die SmartThings-Integration können Nutzer:innen Haushaltsgeräte auch über Galaxy-Geräte fernsteuern. So können sie beispielsweise von unterwegs zu einem Staubsaugerroboter sagen: „Fang an, den Boden zu reinigen“, oder vor der Ankunft zu Hause: „Schalte die Klimaanlage im Entfeuchtungsmodus ein“.
So können Nutzer:innen ihre Wohnumgebung nahtloser verwalten, selbst wenn sie nicht zu Hause sind.
Da Bixby weiterhin auf immer mehr Geräte ausgeweitet wird, wird es ein stärker integriertes und vernetztes Erlebnis bieten und den Nutzer:innen mehr Komfort im Alltag ermöglichen.

Mit Bixby können Nutzer:innen eine Vielzahl von Galaxy-AI-Funktionen im Alltag entdecken und nutzen, ohne technisches Fachwissen zu
Wie sehen die zukünftige Ausrichtung und das Ziel für Bixby aus?
Unser Ziel ist es, dass Bixby zum primären Einstiegspunkt für die Interaktion mit Samsung-Produkten wird.
Früher mussten Nutzer:innen nach der richtigen App suchen, durch Menüs navigieren und zwischen mehreren Bildschirmen wechseln, um eine Aufgabe zu erledigen.
Mit Bixby reicht es, einfach zu sprechen, um Dinge zu erledigen. Dies bedeutet einen Wandel von app- und menübasierten Interaktionen hin zu einer natürlicheren, dialogorientierten Erfahrung.
Um dies zu erreichen, entwickeln wir wichtige AI-Fähigkeiten wie das Verstehen natürlicher Sprache, kontextbasiertes Schlussfolgern und Planen kontinuierlich weiter.
Gleichzeitig erweitern wir Bixby auf immer mehr Geräte. Als Geräteassistent, der jedes Produkt versteht und es mit den Absichten der Nutzer:innen verknüpft, wird Bixby zu einem natürlichen und nahtlosen Begleiter im Alltag.
[1] Um Bixby verwenden zu können ist eine Internetverbindung sowie ein Samsung Account Login erforderlich. Der Umfang der Funktionen und Inhalte von Bixby kann je nach Land, Sprache, Modell und Softwareversion variieren.
[2] Die Privacy Display-Funktion ist nur auf dem Galaxy S26 Ultra verfügbar und kann in den Einstellungen aktiviert werden. Außerhalb des optimalen Betrachtungswinkels kann es zu Veränderungen der Bildqualität kommen. Je nach Umgebung, Blickwinkel oder Displayhelligkeit, können bestimmte Inhalte dennoch für andere sichtbar sein. Beim Anzeigen sensibler Informationen ist Vorsicht geboten.
[3] Zukünftige Versionen der Galaxy AI Funktionen können künftig kostenpflichtig werden.
Produkte > Mobile
Pressematerialien > Pressemitteilungen
Kontaktmöglichkeiten zum Samsung Kundendienst finden Sie hier.
Für Medienanfragen wenden Sie sich bitte an presse.samsung@heroes-heroines.com.