https://mail.google.com/mail/u/0?ui=2&ik=fb1036a398&attid=0.1&permmsgid=msg-f:1611220453590653037&th=165c3477471d586d&view=att&disp=safe https://www.latindex.org/latindex/ficha?folio=28152

Perfil do usuário

Hans Mokare

Resumo da Biografia Google BERT est l’abréviation de Bidirectional Encoder Representations from Transformers et est une mise à jour de l’algorithme de recherche principal visant à améliorer les capacités de compréhension de la langue de Google. BERT est l’une des plus grandes mises à jour effectuées par Google depuis RankBrain en 2015 et s’est avérée efficace pour comprendre l’intention du chercheur derrière une requête de recherche. Ici, l’intention du chercheur est de savoir si un membre de la famille d’un patient peut prendre une ordonnance en son nom. Voici ce que Google a renvoyé avant BERT: Comme vous pouvez le voir, Google a renvoyé un résultat de recherche insatisfaisant, car il n’a pas pu traiter la signification du mot "quelqu’un" dans la requête. Voici ce que Google a renvoyé après l’ intégration des systèmes BERT dans l’algorithme principal: Ce résultat de recherche répond précisément à la question du chercheur. Google a désormais compris la signification du mot "quelqu’un" dans le bon contexte après avoir traité l’intégralité de la requête. Au lieu de traiter un mot à la fois et de ne pas attribuer un poids substantiel à des mots comme «quelqu’un» dans un contexte spécifique, BERT aide Google à traiter chaque mot de la requête et leur attribue un jeton. Il en résulte des résultats de recherche beaucoup plus précis. Dans un autre exemple, la requête est «livre de pratique des mathématiques pour adultes» où le chercheur cherche à acheter des livres de mathématiques pour adultes: Avant le BERT, Google a renvoyé des résultats suggérant des livres pour les classes 6-8, ce qui est incorrect. Google a fourni cette réponse, car la description contient l’expression «jeune adulte», mais dans notre contexte, «jeune adulte» est sans rapport avec la question: Après BERT, Google est en mesure de discerner correctement la différence entre «jeune adulte» et «adulte» et exclut les résultats avec des correspondances hors contexte: Dive Deeper: Comment comprendre l’intention du chercheur et l’utiliser pour booster les classements SEO Qu’est-ce que Google NLP et comment ça marche? PNL signifie Natural Language Processing, qui est un sous-ensemble de l’intelligence artificielle et se compose d’apprentissage automatique et de linguistique (étude du langage). C’est ce qui rend possible la communication entre les ordinateurs et les humains dans un langage naturel. La PNL est la technologie derrière des applications linguistiques populairestelles que: ● Google Traduction ● Microsoft Word ● Grammaire ● OK Google, Siri, Cortana et Alexa La PNL est le cadre qui alimente Google BERT. L’ API de langage naturel de Google comprend les cinq services suivants. 1) Analyse syntaxique Google décompose une requête en mots individuels et extrait des informations linguistiques pour chacun d’eux. Par exemple, la requête «qui est le père de la science?» Est décomposée via l’ analyse syntaxique en parties individuelles telles que: ● Qui tag = pronom ● Is tag (nombre présent singulier) = singulier ● Le tag = déterminant ● Tag père (nom) = singulier ● De tag = préposition ● Étiquette scientifique = nom 2) Analyse de sentiment Le système d’analyse des sentiments de Google attribue un score émotionnel à la requête. Voici quelques exemples d’analyse des sentiments: Remarque: les valeurs et exemples ci-dessus sont tous pris au hasard. Ceci est fait pour vous faire comprendre le concept d’analyse des sentiments fait par Google. L’algorithme réel que Google utilise est différent et confidentiel. 3) Analyse d’entité Dans ce processus, Google récupère des «entités» dans une requête et utilise généralement Wikipédia comme base de données pour trouver les entités dans la requête. Par exemple, dans la requête "quel est l’âge de selena gomez?", Google détecte "Selena Gomez" comme l’entité et renvoie une réponse directe au chercheur de Wikipedia: 4) Analyse du sentiment de l’entité Google va plus loin et identifie le sentiment dans le document global contenant les entités. Lors du traitement des pages Web, Google attribue un score de sentiment à chacune des entités en fonction de la façon dont elles sont utilisées dans le document. Le score est similaire au score effectué lors de l’analyse des sentiments. 5) Classification des textes Imaginez avoir une grande base de données de catégories et sous-catégories comme DMOZ (un répertoire multilingue à contenu ouvert de liens World Wide Web). Lorsque DMOZ était actif, il a classé un site Web en catégories et sous-catégories et encore plus de sous-catégories. C’est ce que fait la classification de texte. Google correspond à la sous-catégorie de pages Web la plus proche en fonction de la requête saisie par l’utilisateur. Par exemple, pour une requête comme «conception d’un papillon», Google peut identifier différentes sous-catégories telles que «art moderne», «art numérique», «conception artistique», «illustration», «architecture», etc., puis choisissez le sous-catégorie correspondante la plus proche. Dans les mots de Google: «L’un des plus grands défis du traitement du langage naturel (PNL) est le manque de données de formation. Parce que la PNL est un domaine diversifié avec de nombreuses tâches distinctes, la plupart des ensembles de données spécifiques aux tâches ne contiennent que quelques milliers ou quelques centaines de milliers d’exemples de formation étiquetés par l’homme. » Pour résoudre le problème d’une pénurie de données de formation, Google est allé plus loin et a conçu Google AutoML Natural Language qui permet aux utilisateurs de créer des modèles d’apprentissage automatique personnalisés. Le modèle BERT de Google est une extension du langage naturel Google AutoML . Remarque: le modèle Google BERT comprend le contexte d’une page Web et présente les meilleurs documents au chercheur. Ne pensez pas à BERT comme une méthode pour affiner les requêtes de recherche; il s’agit plutôt d’une manière de comprendre le contexte du texte contenu dans les pages Web. Qu’est-ce que BERT NLP? BERT est un modèle open source et est une extension du langage naturel Google AutoML comme expliqué ci-dessus. Le BERT est la méthode qui sera utilisée pour optimiser la PNL pour les années à venir. Comme le suggère Google : «Nous avons ouvert une nouvelle technique de pré-formation PNL appelée Représentations des encodeurs bidirectionnels des transformateurs , ou BERT. Avec cette version, n’importe qui dans le monde peut former son propre système de réponse aux questions à la pointe de la technologie (ou une variété d’autres modèles) en environ 30 minutes sur un seul TPU Cloud , ou en quelques heures en utilisant un seul GPU. " BERT représente la nouvelle ère de la PNL et probablement la meilleure qui ait été créée jusqu’à présent. If you liked this report and you would like to get a lot more facts about google bert kindly pay a visit to our own web-site. Thang Luong, chercheur scientifique principal chez Google Brain, a tweeté ceci avant le lancement de BERT: Le BERT aide Google à traiter les requêtes conversationnelles La mise à jour de Google BERT (un composant de Natural Language Processing) vise à traiter les requêtes conversationnelles et, comme le dit le géant des moteurs de recherche : "En particulier pour les requêtes plus longues et plus conversationnelles, ou les recherches où des prépositions telles que" pour "et" à "importent beaucoup au sens, la recherche sera en mesure de comprendre le contexte des mots dans votre requête. Vous pouvez rechercher d’une manière qui vous semble naturelle. » Des stratégies de représentation linguistique pré-formées telles que «basées sur les fonctionnalités» et «affinement» se sont avérées améliorer de nombreuses tâches de traitement du langage naturel: BERT améliore la stratégie de représentation linguistique «affinée». Il atténue la contrainte d’unidirectionnalité précédemment utilisée en utilisant un nouveau «modèle de langage masqué» (MLM) qui masque aléatoirement certains des mots de la phrase et prédit le vocabulaire original des mots basé uniquement sur son contexte. Comme suggéré dans ce document de recherche de Google intitulé "BERT: Pré-formation de transformateurs bidirectionnels profonds pour la compréhension du langage": «Le BERT est le premier modèle de représentation basé sur le réglage fin qui atteint des performances de pointe sur une large suite de tâches au niveau des phrases et des jetons, surpassant de nombreuses architectures spécifiques aux tâches…. [Il] est conceptuellement simple et empiriquement puissant. Il obtient de nouveaux résultats de pointe sur onze tâches de traitement du langage naturel, notamment en poussant le score GLUE à 80,5% (amélioration absolue de 7, 7%), la précision MultiNLI à 86,7% (amélioration absolue de 4,6%), SQuAD v1.1 question répondant au test F1 à 93,2 (amélioration absolue de 1,5 point) et au test SQuAD v2.0 F1 à 83,1). » C’est beaucoup de langage technique, mais l’essentiel est le suivant: BERT fonctionne sur 11 tâches PNL et améliore le score de précision de chacune d’entre elles, ce qui se traduit par des résultats de recherche précis.