Alles über den BERT-Algorithmus in der Google-Suche

Worum geht es, wie funktioniert der BERT-Algorithmus und was bedeutet er für die Suche.

Das weltweit bekannte Unternehmen Google hat verlautbart, dass das letzte Update für die Suche bei Google, der sogenannte BERT-Algorithmus, einiges dazu beisteuern wird, die Absichten der Suchanfragen der Nutzer besser verstehen zu können. Das führt in der Zukunft zu besseren Ergebnissen. BERT wird laut Google an die zehn Prozent der Suchanfragen positiv beeinflussen. Das bedeutet, dass es mit ziemlicher Sicherheit einen gewissen Einfluss auf die Sichtbarkeit und den Traffic einer Marke hat. Allerdings wird man das aber nicht bemerken.

Dies ist ein guter Ausblick auf das, was Google als “eine der wesentlichsten Verbesserungen bei der Suche” bezeichnet. Wollen Sie mehr wissen, dann werfen Sie einen Blick auf unseren Artikel und Sie werden BERT besser verstehen.

Wann wurde BERT in der Google-Suche eingeführt?

BERT wurde im Laufe des Oktober im Jahr 2019 im Suchsystem von Google für englischsprachige Suchanfragen eingeführt, und zwar einschließlich der vorgestellten Snippets. wie angekündigt wird der Algorithmus auf alle Sprachen ausgedehnt, in denen Google Suchfunktion anbietet. Allerdings gibt es noch keinen festgelegten Zeitplan. Ein Modell von BERT wird auch dazu herangezogen, um Snippets in zwei Dutzend Ländern zu verbessern.

Was genau ist BERT?

BERT steht für Bidirectional Encoder Representations from Transformers. Es handelt sich dabei um eine auf einem neuronalen Netzwerk basierende Technik zur Verarbeitung natürlicher Sprache. Genau gesagt kann man BERT dazu heranziehen, um Google dabei zu unterstützen, den Kontext von Wörtern in Suchanfragen besser zu erkennen.

Zum Beispiel hat in den Ausdrücken „neun vor fünf“ und „ein Viertel bis fünf“ das Wort „bis“ zwei unterschiedliche Bedeutungen, die für Menschen offensichtlich sein können, für Suchmaschinen jedoch weniger. BERT ist darauf ausgelegt, zwischen solchen einzelnen Nuancen zu differenzieren, um auf diese Weise eindeutigere Ergebnisse zu ermöglichen.

Was ist ein neuronales Netzwerk?

Neuronale Netzwerke von Algorithmen sind für das Wahrnehmen von Mustern ausgelegt, um es einfach zu formulieren. Das Kategorisieren von Bildinhalten, das Erkennen von Handschriften und das Vorhersagen von Trends auf den Finanzmärkten sind reale Anwendungen für neuronale Netze. Ganz zu schweigen von Suchanwendungen.

Sie trainieren Datensätze, um Muster zu erkennen. BERT war mit dem Klartext-Korpus von Wikipedia vortrainiert, stellte Google fest, als es das Programm als Open-Source-Version anbot.

Was ist die Verarbeitung natürlicher Sprache?

Mit dem Begriff “Natural Language Processing (abgekürzt NLP)” wird ein Bereich der künstlichen Intelligenz bezeichnet, der sich mit der Linguistik befasst. Das hat den Zweck um es Computern zu ermöglichen, die Art und Weise zu verstehen, wie Menschen auf natürliche Art und Weise miteinander kommunizieren. Beispiele für Verbesserungen, die durch NLP ermöglicht wurden, sind unter anderem Social Listening Tools, Chatbots und Wortvorschläge auf dem Smartphone.

NLP ist keine wirklich neue Funktion für Suchmaschinen. BERT bedeutet jedoch einen Fortschritt im Bereich von NLP durch bidirektionales Training.

Wie arbeitet BERT?

Der Erfolg von BERT liegt darin begründet, Sprachmodelle auf der Grundlage der gesamten Wortmenge in einem einzigen Satz oder einer Abfrage zu trainieren. Und das nicht auf die herkömmliche Art und Weise auf der Grundlage der geordneten Wortfolge (von links nach rechts oder kombiniert nach links) oder (von rechts und von rechts nach links). Mit BERT kann das Sprachmodell den Kontext des Wortes anhand der umgebenden Wörter erlernen und nicht nur anhand des Wortes, das unmittelbar davor oder danach steht.

Google nennt BERT “bidirektional”, weil die kontextbezogenen Darstellungen von Wörtern ganz unten in einem neuronalen Netzwerk beginnen.

Zum Beispiel würde das Wort “Ban” die gleiche kontextfreie Darstellung in “Bankkonto” und “Ufer des Flusses” haben. Kontextmodelle generieren eine Darstellung jedes Wortes, das auf den weiteren Wörtern im Satz basiert. Beispiel: In dem Satz “Ich habe auf das Bankkonto zugegriffen” stellt ein unidirektionales Kontextmodell “Bank” dar, basierend auf “Ich habe auf das Konto zugegriffen, aber nicht “. BERT stellt jedoch”Bank” dar, wobei sowohl der vorherige als auch der nächste Kontext verwendet werden.

Google hat einige Beispiele gezeigt, wie sich die Anwendung von BERT in der Suche auf die Ergebnisse auswirken kann. In einem Beispiel tauchte bei der Abfrage „Mathe-Übungsbücher für Erwachsene“ oben in den organischen Ergebnissen eine Liste für ein Buch der Klassen 6 bis 8 auf. Wenn BERT angewendet wird, zeigt Google oben in den Ergebnissen eine Liste mit einem Buch mit dem Titel “Math for Grownups” an.

Eine Änderung des Suchergebnisses wie oben spiegelt das neue Verständnis der Abfrage mit BERT wider. Der Young Adult-Inhalt wird nicht abgestraft, sondern die für Erwachsene spezifischen Einträge werden als besser auf die Absicht des Nutzers abgestimmt gesehen.

Verwendet Google BERT, um alle Suchanfragen zu verstehen?

Nein. BERT wird das Verständnis von Google für etwa eine von zehn englischen Suchanfragen in den Vereinigten Staaten verbessern. Insbesondere bei längeren, textintensiven Abfragen oder Suchvorgängen, bei denen Präpositionen wie “nach” und “nach” eine wichtige Rolle für die Bedeutung spielen, kann Search den Kontext der Wörter in der Abfrage verstehen.

Es sind aber nicht sämtliche Abfragen umfangreich formuliert oder enthalten auch Präpositionen. Markensuchen und kürzere Phrasen sind nur zwei Beispiele für Typen von Abfragen, für die unter Umständen keine Verarbeitung in natürlicher Sprache durch BERT erforderlich ist.

Wie wirkt sich BERT auf die vorgestellten Snippets aus?

Wie man im obigen Beispiel sehen kann, wirkt sich BERT unter Umständen auf die Ergebnisse aus, die in vorgestellten Ausschnitten angezeigt werden, wenn sie angewendet werden.

In einem weiteren Beispiel vergleicht Google die vorgestellten Ausschnitte für die Abfrage “Parken auf einem Hügel ohne Bordstein” und erklärt: “In der Vergangenheit hat eine Abfrage wie diese unsere Systeme verwirrt. Wir haben dem Wort “Bordstei “zu viel Bedeutung beigemessen.” und ignorierten das Wort “nein” und verstanden nicht, wie wichtig dieses Wort für die korrekte Beantwortung dieser Anfrage war. Wir würden also Ergebnisse für das “Parken auf einem Hügel mit Bordstein zurückgeben.”

Was ist der Unterschied zwischen BERT und RankBrain?

Einige der Funktionen von BERT erscheinen auf den ersten Blick unter Umständen wie die erste künstliche Intelligenzmethode von Google zum Verständnis von Abfragen namens “RankBrain”. Es handelt sich allerdings um zwei unterschiedliche Algorithmen, die zum Interpretieren der Suchergebnisse angewendet werden können.

RankBrain wird parallel zu den normalen Ranking-Algorithmen für die organische Suche ausgeführt und verwendet, um die mit diesen Algorithmen berechneten Ergebnisse entsprechend anzupassen. RankBrain passt die Ergebnisse an, indem es die aktuelle Abfrage in Augenschein nimmt und ähnliche frühere Abfragen findet. Danach wird die Leistung der Suchergebnisse für diese historischen Abfragen geprüft. Basierend auf dem, was RankBrain erkennt, kann es die Ausgabe der Ergebnisse der normalen Ranking-Algorithmen für die organische Suche entsprechend anpassen.

RankBrain unterstützt Google auch bei der Interpretation von Suchanfragen, es werden Ergebnisse aufgezeigt, die vielleicht nicht die genauen Wörter der Suchanfrage enthalten. In einem Beispiel konnte Google feststellen, dass der Nutzer Informationen über den Eiffelturm suchte, obwohl der Name des Turms nicht in der Abfrage „Höhe des Wahrzeichens in Paris“ enthalten war.

BERT arbeitet anders. Übliche Algorithmen versuchen, den Inhalt einer Seite zu untersuchen, um zu verstehen, worum es geht und wofür es relevant sein kann. Herkömmliche NLP-Algorithmen können in der Regel nur den Inhalt vor einem Wort oder den Inhalt nach einem Wort nach einem zusätzlichen Kontext durchsuchen, um die Bedeutung dieses Wortes besser zu verstehen. Die bidirektionale Komponente von BERT macht das anders. BERT untersucht den Inhalt vor und nach einem Wort, um das Verständnis der Bedeutung und Relevanz dieses Wortes entsprechend zu verbessern.

Sowohl BERT als auch RankBrain werden von Google zum Verarbeiten von Abfragen und Webseiteninhalten herangezogen, um ein besseres Verständnis der Bedeutung der Wörter zu bekommen.

BERT ist nicht dazu gedacht, um RankBrain zu ersetzen. Google verwendet mehrere Methoden, um eine Abfrage zu verstehen. Dies bedeutet, dass BERT neben anderen Google-Algorithmen in Verbindung mit RankBrain je nach Suchbegriff für sich allein oder in beliebiger Kombination oder überhaupt nicht angewendet werden kann.

Welche weiteren Google-Produkte könnten von BERT betroffen sein?

Die Voeankündigung von Google für BERT bezieht sich nur auf die Suche. Es wird allerdings auch Auswirkungen auf Google Assistant geben. Wenn auf Google Assistant durchgeführte Abfragen dazu führen, dass ausgewählte Snippets oder Webergebnisse aus der Suche aufgezeigt werden, werden diese Ergebnisse unter Umständen von BERT beeinflusst.

Google hat Search Engine Land mitgeteilt, dass BERT derzeit nicht für Anzeigen verwendet wird. Wenn es jedoch integriert wird, kann es dazu beitragen, einige der engen Varianten zu verringern, welchen den Werbetreibenden Probleme verursachen.

"Wie kann ich für BERT optimieren?"

Mit BERT gibt es nichts zu optimieren, und niemand muss umdenken. Die Empfehlung von Google für eine gute Platzierung war es immer, den Nutzer im Auge zu behalten und Inhalte zu erstellen, die seiner Suchabsicht entsprechen. Da BERT darauf ausgelegt ist, diese Absicht zu interpretieren, ist es sinnvoll, dem Nutzer auch in Zukunft die richtige Beratung von Google zu geben.

“Optimieren” bedeutet nun, dass man sich mehr auf gutes, klares Schreiben konzentrieren können, anstatt Kompromisse zwischen der Erstellung von Inhalten für das Publikum und der linearen Phrasenkonstruktion für Maschinen einzugehen.

© 2024 SEOWALL | All rights reserved. | Jobs | Partnerprogramm | Impressum | Datenschutz

Nach oben