Suchmaschinen sind keine neutralen Dinge. Ihre Algorithmen haben die Macht, unser Verständnis von Frühstückszerealien bis hin zu Geopolitik zu beeinflussen, und ihr Einfluss wird in einer Zeit deutlich, in der wir uns zunehmend auf das Internet verlassen, um komplexe Themen schnell zu verstehen. In einem Klima von Fehlinformationen und falschen Nachrichten sind Suchmaschinen eine Linse dessen, was wir von der Welt sehen.
KI versucht, diese Beziehung weiter zu verstärken, indem Suchmaschinen intelligenter werden, wenn es darum geht, wie sie auf Wellen im Internet reagieren; ihr Gewicht zu verlagern, um die maßgeblichsten Quellen aufzuwerten. Das ist zumindest die Hoffnung. Die Sorge ist, dass je weniger Menschen mit der Optimierung von Suchalgorithmen zu tun haben, desto mehr Spielraum gibt es für maschinelles Lernen, um erkenntnistheoretische Nuancen zu beschönigen.
Während den Maßnahmen von Google zur Umrüstung der Suche viel Aufmerksamkeit geschenkt wurde, hat Microsoft stillschweigend einige Änderungen an Bing vorgenommen. Ende letzten Jahres begann es mit der Einführung von „multiperspektivischen Antworten“ auf seiner Plattform. Anstatt eine Standard-Linkliste zu erstellen, verknüpft die Suchmaschine bestimmte Fragen mit Themen, die mehrere Standpunkte haben, und präsentiert diese als gleichgewichtete Antworten.
Suchen Sie zum Beispiel nach „Ist Kaffee gut für Sie?“, und Sie werden oben in den Ergebnissen auf ein Kästchen mit zwei Antworten aus zwei verschiedenen Quellen treffen, die durch ein kleines „vs“-Symbol getrennt sind. Laut Microsoft ist dies eine Möglichkeit, die Probleme der Polarisierung großer Internetplattformen anzugehen, indem Online-Filterblasen mit mehreren Perspektiven zu einem Thema zum Platzen gebracht werden.
„Im aktuellen Klima von Fake News und Fehlinformationen im Internet sind wir der Meinung, dass Suchmaschinen einen Schritt nach vorne machen und so umfassende Ergebnisse wie möglich liefern müssen“, sagt mir Jordi Ribas, Corporate Vice President of AI Products bei Microsoft und Bing .
„Sonst neigen die Leute dazu, in ihren Blasen zu stecken. Wenn Sie traditionelle Algorithmen verwenden, stellen Sie fest, dass Sie, ob in sozialen Medien oder in der Suche, personalisierte Ergebnisse liefern, aber letztendlich die Vorurteile verstärken, die die Person ohnehin hätte. Mit dieser Technologie versuchen wir, diese Blasen aufzubrechen.“
Die Bereitstellung einer Reihe von Antworten auf eine bestimmte Frage könnte so gelesen werden, dass sie den Benutzern die Möglichkeit bietet, ihre eigene Wahrheit auszuwählen, und es besteht auch die Gefahr, dass eine falsche Äquivalenz für Themen angeboten wird, die dies nicht rechtfertigen. Sie wollen zum Beispiel keine Vor- und Nachteile von Flacherde-Theorien aufzeigen. Ribas betont jedoch, dass das System auf dem maßgeblichen Gewicht der Quelle basiert, und betont, dass der Ansatz darauf abzielt, Nuancen und keine Fehlinformationen zu umfassen.
Unabhängig von der ethischen Denkweise hinter Bings neuem Ansatz ist die Anzahl der Themen, die derzeit multiperspektivisch behandelt werden, aufschlussreich begrenzt. Harmlose Themen über die relativen Vorteile von Kaffee oder Cholesterin haben „positive“ und „negative“ Antworten, aber alles, was auch nur annähernd politisch ist, ist vom Tisch.
Geben Sie beispielsweise „Ist der Brexit eine gute Idee?“ oder „Soll Donald Trump angeklagt werden?“ ein. und von einer „multiperspektivischen Antwort“ keine Spur. Geben Sie „Gibt es einen Gott?“ ein. und die erste Antwort verlinkt auf einen Artikel mit dem Titel „Sechs einfache Gründe zu glauben, dass Gott wirklich da ist“ – nicht gerade die nuancierte Zukunft der Suche, von der Microsoft spricht.
Siehe verwandt It’s not bots, it’s us:Falsche Nachrichten werden viel schneller geteilt als echte Geschichten auf TwitterBad News ist das Spiel, das Ihnen etwas über gefälschte Nachrichten beibringt„Fake News“ ist zu einem Geschäftsmodell geworden, argumentieren Forscher
Ribas räumt ein, dass Bings Abdeckung von facettenreichen Suchergebnissen „im Moment relativ gering“ sei, und erklärt, dass die KI hinter den multiperspektivischen Antworten verfeinert werden muss, bevor sie sich auf strittige Themen loslässt. „Wir werden versuchen, die Algorithmen zu verfeinern, damit wir die Autorität besser verstehen können und dies zu objektiveren Ergebnissen führt. Werden wir es immer richtig machen? Nein. Es gibt so viele Fragen, die die Leute stellen, und wir werden dabei Fehler machen, aber wir haben die Inspiration, so vertrauenswürdige Informationen wie möglich bereitzustellen.“
Er erklärt, dass Bing eine sogenannte „Stimmungsanalyse“ verwendet, um abzuschätzen, ob eine Frage eine multiperspektivische Antwort erfordert oder nicht. Die maschinellen Lernalgorithmen tun dies, indem sie Dokumente zu einer bestimmten Anfrage in verschiedene „Stimmungen“ gruppieren und diese basierend auf der wahrgenommenen Autorität einer Quelle gewichten. Wenn ein Cluster alle anderen drastisch überwiegt, wird es als Wahrheit angenommen und als endgültige Antwort präsentiert. Wenn jedoch zwei unterschiedliche Cluster von Antworten relativ gleich sind, wird dies als eine Antwort mit mehr als einer „gültigen“ Antwort angezeigt.
Ein Sprecher des Unternehmens sagte gegenüber Alphr dass Publisher sich selbst als verifizierte Quelle bei der Suchmaschine einreichen können, die ihre Inhalte als maßgeblich für die Zwecke der Bing-Algorithmen kennzeichnen würde:„Publisher können über pubhub.bing.com zu einer verifizierten Informationsquelle auf Bing werden. Nachrichtenseiten werden anhand der folgenden Kriterien beurteilt und außerdem manuell von einem Team von Journalisten auf Nachrichtenwert, Originalität, Autorität und Lesbarkeit überprüft.“
Zuverlässige KI
Trotz des derzeit recht begrenzten Umfangs an „multiperspektivischen Antworten“ betont Ribas, er wolle, dass sein Unternehmen für „trustworthy AI“ stehe. Ein wichtiger Teil davon ist, klare Parameter zu haben, um zu steuern, wie sich die Deep-Learning-Systeme von Microsoft entwickeln, insbesondere in Bezug auf die heimtückischen Auswirkungen des Trainings von KI mit voreingenommenen Daten.
„KI hat die Besonderheit, dass sie lernen und sich weiterentwickeln kann, aber am Ende des Tages sind es nur Algorithmen“, sagt er. „Was wir sehen, ist, dass diese Algorithmen Parameter haben müssen, damit sie das Richtige tun. Wir haben zum Beispiel über Vorurteile gesprochen. Wenn wir diese Algorithmen aus voreingenommenen Daten lernen lassen, werden sie voreingenommen. Wir brauchen Richtlinien, die uns helfen sicherzustellen, dass die Daten, die wir zum Trainieren der Algorithmen verwenden, so unvoreingenommen wie möglich sind.“
Microsoft ist Mitglied mehrerer Gruppen, die sich der Untersuchung praktischer und ethischer Fragen rund um künstliche Intelligenz verschrieben haben, darunter die Partnership on AI und das Center for Brains, Minds and Machines (CBMM) des MIT. Dies sind die Arten von Zentren, die sich bemühen, die Richtlinien zu schreiben, auf die Ribas hindeutet. Es sind jedoch nicht nur westliche Universitäten und Technologieunternehmen, die KI-Praktiken entwickeln. Insbesondere China drängt darauf, ein weltweit führendes Unternehmen im Bereich KI zu werden, wobei das Überwachungstechnologieunternehmen SenseTime kürzlich zum wertvollsten KI-Startup der Welt wurde.
(Jordi Ribas. Bildnachweis:Microsoft)
Die Konkurrenz zwischen dem Westen und anderen Ländern sei laut Ribas „derzeit überall sehr eng“. Er verweist auf den Stanford Question Answering Dataset (SQuAD)-Test, bei dem eine KI exakte Antworten auf mehr als 100.000 Fragen geben muss, die aus mehr als 500 Wikipedia-Artikeln stammen. Microsoft hat den Test im Januar bestanden, wurde aber vom chinesischen Riesen Alibaba überholt.
Macht Microsoft der Wettbewerb zwischen chinesischen und westlichen Firmen Sorgen, insbesondere in Anbetracht der Frage nach „vertrauenswürdiger KI“ und den unterschiedlichen gesellschaftlichen Werten? „Es gibt Implikationen, die definitiv durchdacht werden müssen, nicht nur in Bezug auf [gesellschaftliche] Werte, sondern auch [die] Datenschutzgesetze jedes Landes“, sagt Ribas. „In diesem Sinne können einige Länder diese Technologien schneller entwickeln, weil sie in Bezug auf die Datenschutzgesetze im Vergleich zu anderen entspannter sind. Im Laufe der Zeit müssen wir sehen, wie sich das alles entwickelt.“
Dies sind große Fragen zur zukünftigen ethischen Ausrichtung der KI. Für Bing ist die Frage, die näher liegt, wie man seine maschinellen Lernfähigkeiten am besten für die Suche nutzt. In einer Zeit, in der die Aufmerksamkeit darauf gelenkt wird, wie Algorithmen unsere Sicht auf die Welt beeinflussen können, möchte Ribas, dass Bing ein neues Modell für Informationen im Internet anbietet. Ob ihm das gelingt, bleibt abzuwarten.
„Wenn wir die Einzigen sind, die es tun und es eine signifikante Differenzierung schafft und die Leute zu Bing kommen, großartig, wollen wir das am Ende des Tages auch. Aber das ist tiefer. Wir wollen insbesondere für Suchmaschinen ein Zeichen setzen, möglichst objektiv zu sein. Objektivität bei der Suche könnte nicht wichtiger sein als heute.“