Ваше благополучие зависит от ваших собственных решений.

Джон Дэвисон Рокфеллер

Меню сайта
  • Компьютеры
  • Телефоны
  • Бизнес
  • Свое дело
  • Решение проблем
  • Интернет
  • Новости
  • Новости
    Реклама
    Реклама

    Может ли Google правильно сканировать и индексировать фреймворки JavaScript? JavaScript SEO Эксперимент.

    1. Результаты SEO-эксперимента по JavaScript:
    2. Настройка сайта
    3. содержание
    4. методология
    5. Эксперимент по сканированию и индексированию JavaScript - результаты
    6. Контрольный список эксперимента
    7. 1. Получать и отображать с помощью Google Search Console - правильно ли он отображается?
    8. 2. Индексируется ли Google адресом?
    9. 3. Видно ли содержимое URL в кеше Google?
    10. 4. Правильно ли отображаются ссылки в кеше Google?
    11. 5. Поиск уникального контента со страницы фреймворка
    12. 6. Проверьте, был ли просканирован URL «* framework * / test /»
    13. Сканирование и индексация JavaScript - окончательные результаты
    14. Результаты эксперимента - jQuery - внутренний и внешний вызов против Ajax
    15. Результаты эксперимента - Реакция - Встроенный против Внешнего
    16. Результаты эксперимента - Простой JavaScript - Внутренний и Внешний
    17. Результаты эксперимента - угловой JS 1 и 2 - встроенный, внешний и объединенный
    18. Результаты эксперимента - встроенный, внешний или в комплекте?
    19. Google Cache против Google Index?
    20. Методология позади эксперимента
    21. Github - документация эксперимента
    22. Эксперимент продолжается
    23. [Обновление № 1]
    24. [Обновление № 2]

    Мы хотели узнать, сколько JavaScript Googlebot может читать, сканировать и индексировать. Чтобы достичь этого, мы создали сайт - http://jsseo.expert , У каждой подстраницы был контент, сгенерированный различными структурами JavaScript. Мы отслеживали журналы сервера, сканирование и индексацию, чтобы определить, какие платформы полностью просматриваются и индексируются Google.

    Результаты SEO-эксперимента по JavaScript:

    • Встроенный, внешний и встроенный JavaScript имеет огромное значение для робота Googlebot.
    • Просмотр содержимого в Google Cache не означает, что он проиндексирован Google.

    Если вы хотите знать, какие фреймворки хорошо работают с SEO, но не хотите изучать документацию эксперимента, кликните сюда прокрутить прямо к разделу результатов и увидеть графики, представляющие данные.

    В последние годы разработчики использовали технологию, обогащенную JavaScript, полагая, что Google может правильно сканировать и индексировать JavaScript. В большинстве случаев разработчики указывают на это Объявление Google в качестве доказательства того, что технические рекомендации Google разрешают JavaScript-богатые веб-сайты.

    Тем не менее, в Интернете есть множество примеров, когда такие решения идут плохо. Один из самых популярных примеров плохого SEO JavaScript Пример использования Hulu.com ,

    Несмотря на то, что существует множество данных и тематических исследований, ясно показывающих проблемы Google с сканированием и индексацией JavaScript, все больше и больше веб-сайтов запускаются с помощью рендеринга JavaScript на стороне клиента (это означает, что Googlebot или вашему браузеру необходимо обрабатывать JavaScript для просмотра содержимого).

    Я считаю, что объявление Google было неправильно понято. Позвольте мне объяснить, почему.

    Большинство разработчиков ссылаются на этот раздел Сообщение в блоге Google :

    Мы хотели узнать, сколько JavaScript Googlebot может читать, сканировать и индексировать

    Времена изменились. Сегодня, пока вы не запрещаете роботу Googlebot сканировать файлы JavaScript или CSS, мы обычно можем отображать и понимать ваши веб-страницы, как современные браузеры. Чтобы отразить это улучшение, мы недавно обновили наши технические рекомендации для веб-мастеров, чтобы не запрещать роботу Google сканировать файлы CSS или JS вашего сайта.

    В той же статье вы найдете еще несколько довольно интересных, но пропущенных утверждений:

    Иногда во время рендеринга дела идут не очень хорошо, что может негативно повлиять на результаты поиска по вашему сайту.

    Это всегда хорошая идея, чтобы ваш сайт изящно ухудшился. Это поможет пользователям наслаждаться вашим контентом, даже если их браузер не имеет совместимых реализаций JavaScript. Это также поможет посетителям с отключенным или отключенным JavaScript, а также поисковым системам, которые еще не могут выполнить JavaScript.

    Иногда JavaScript может быть слишком сложным или запутанным для нас, чтобы выполнить его, и в этом случае мы не можем отобразить страницу полностью и точно.

    К сожалению, даже некоторые уважаемые веб-сайты в сообществе разработчиков JavaScript, похоже, слишком оптимистичны в отношении способности Google сканировать и индексировать структуры JavaScript.

    Источник: https://scotch.io/tutorials/angularjs-seo-with-prerender-io

    Лучшие веб-разработчики хорошо осведомлены о проблемах индексации JavaScript, и если вы хотите увидеть это из первых рук, посмотрите всего несколько минут из видео ниже:

    Джефф Уэлпли
    Конференция Angular U, 22-25 июня 2015 г., Hyatt Regency, Аэропорт Сан-Франциско
    «Angular 2 Server Rendering»

    Если вы ищете какие-либо конкурентные ключевые слова, это всегда будут сайты, представленные на сервере. И причина в том, что, хотя Google индексирует визуализированный HTML-код клиента, он еще не совершенен, и другие поисковые системы тоже этого не делают. Поэтому, если вы заботитесь о SEO, вам все равно нужно иметь контент, отображаемый на сервере.

    Джефф Уэлпли работал с Тобиас Бош на рендеринг сервера для Angular 2. Тобиас Бош - инженер-программист в Google, который является частью Угловая основная команда и работает на Angular 2.

    К сожалению, я не нашел ни примеров, ни документации, ни четких данных о том, как Google сканирует и индексирует различные фреймворки JavaScript. JavaScript SEO - определенно тема, которая скоро станет очень популярной, но нет ни одной статьи, объясняющей начинающим JavaScript SEO, как начать диагностировать и устранять даже основные проблемы JavaScript SEO.

    [ОБНОВЛЕНИЕ: Google признал, что они используйте Chrome 41 для рендеринга , С тех пор процесс отладки стал намного проще и быстрее.]

    Этот эксперимент является первым шагом в предоставлении четких, действенных данных о том, как работать с веб-сайтами на основе используемой платформы JS.

    Теперь, когда мы обсудили причину этого теста, давайте посмотрим, как мы его настроили.

    Настройка сайта

    Первым шагом была настройка простого веб-сайта, на котором каждая подстраница генерируется разной структурой. Поскольку я не являюсь разработчиком JavaScript, я обратился к моему хорошему другу и самому умному парню из JavaScript, которого я знаю, - Камилу Гримузе. Обладая 15-летним опытом разработки JavaScript, Камил быстро создал веб-сайт для нашего эксперимента:

    Обладая 15-летним опытом разработки JavaScript, Камил быстро создал веб-сайт для нашего эксперимента:

    Ядро сайта было на 100% закодировано в HTML, чтобы обеспечить его полное сканирование и индексирование. Это становится интересным, когда вы открываете одну из подстраниц:

    Это становится интересным, когда вы открываете одну из подстраниц:

    Структура подстраниц была очень простой. Вся страница представляла собой обычный HTML-код с одной красной рамкой для контента, созданного JavaScript. С отключенным JavaScript внутри красной рамки было пусто.

    JavaScript включен:

    JavaScript отключен:

    JavaScript отключен:

    В этот момент наш эксперимент был более или менее готов к работе. Все, что нам было нужно сейчас, это содержание

    содержание

    Наши страницы «Hello World» были проиндексированы через несколько часов после того, как мы запустили сайт. Чтобы удостовериться, что есть какой-то уникальный контент, который мы могли бы «кормить» роботом Google, я решил нанять искусственный интеллект, чтобы написать статью для нас. Для этого мы использовали Articoloo , который генерирует удивительный контент, написанный AI.

    Я решил, что тема наших статей будет основана на популярных туристических направлениях.

    Так выглядит страница после добавления контента. Все, что вы видите в красной рамке, генерируется платформой JavaScript (в случае скриншота ниже - VUE JS).

    Все, что вы видите в красной рамке, генерируется платформой JavaScript (в случае скриншота ниже - VUE JS)

    Индексирование контента - это только полдела. Архитектура веб-сайта может работать должным образом, только если робот Googlebot может переходить по внутренним и внешним ссылкам.

    JavaScript ссылки

    Ссылки всегда были проблемой с клиентским JavaScript. Вы никогда не знали, будет ли Google следовать ссылкам JS или нет. Фактически, некоторые оптимизаторы все еще используют JavaScript для «скрытия ссылок». Я никогда не был поклонником этого метода; однако имеет ли это смысл с технической точки зрения? Давайте разберемся!

    Давайте разберемся

    Мы нашли очень простой способ выяснить, следит ли Google за ссылками, сгенерированными JavaScript, для конкретной платформы JS. Мы добавили ссылку в каждый контент, создаваемый JavaScript, создавая своего рода приманку для робота Googlebot. Каждая ссылка указывала на http://jsseo.expert/*framework*/test/ .

    Позвольте мне показать вам пример:

    Чтобы было еще проще отслеживать, ссылки указывали на * framework * / test / URLs.

    Ссылка, сгенерированная страницей Angular 2 ( http://jsseo.expert/angular2/ ) будет указывать на http://jsseo.expert/angular2/test/ (пробелы добавлены, чтобы избежать путаницы в эксперименте с живой ссылкой!). Это позволило легко отслеживать, как робот Google сканирует / тестирует / URL-адреса. Ссылки не были доступны для Googlebot в любой другой форме (внешние ссылки, карты сайта, GSC-выборки и т. Д.).

    отслеживание

    Чтобы отследить, посетил ли робот Googlebot эти URL-адреса, мы отследили входы сервера Loggly.com , Таким образом, у меня будет предварительный просмотр того, что сканирует робот Googlebot, в то время как моя история данных журнала будет безопасно храниться на сервере.

    Затем я создал оповещение, чтобы получать уведомления о посещениях любого * / test / URL с любых известных IP-адресов Google.

    методология

    Методология эксперимента была предельно простой. Чтобы убедиться, что мы все точно измерили и чтобы избежать ложных срабатываний или негативов:

    1. В качестве ссылки у нас была простая HTML-страница, чтобы робот Google мог полностью получить доступ к нашему веб-сайту, контенту и т. Д.
    2. Мы отслеживали журналы сервера. Инструменты - Loggly для предварительного просмотра в реальном времени + полные журналы сервера, хранящиеся на сервере (Loggly имеет ограниченное время хранения журнала).
    3. Мы тщательно отслеживали время работы сайта, чтобы убедиться, что он доступен для робота Google. Инструменты - NewRelic, Onpage.org, Statuscake.
    4. Мы убедились, что все ресурсы (CSS, JS) полностью доступны для Googlebot.
    5. Все http://jsseo.expert/*FRAMEWORK-NAME*/test/ URL были настроены на noindex, следите, и мы тщательно отслеживаем, посещал ли робот Googlebot какой-либо из / test / страниц через настройку настраиваемых оповещений на Loggly.com.
    6. Мы держали этот эксперимент в секрете при сборе данных (чтобы кто-то не мог поделиться тестовым URL-адресом в социальной сети или выбрать его в качестве робота Google, чтобы связываться с нашими результатами). Конечно, мы не могли контролировать сканеры, скребки и органический трафик, попадающий на сайт после того, как он был проиндексирован в Google.

    РЕДАКТИРОВАТЬ 25/05/2017

    Получив отзывы об этом эксперименте от Джона Мюллера и увидев разные результаты для разных браузеров / устройств, мы не будем продолжать изучать данные кэша, продолжая этот эксперимент. Он не отражает возможности робота Googlebot по сканированию и индексированию.

    Эксперимент по сканированию и индексированию JavaScript - результаты

    После сбора всех данных мы создали простую методологию для анализа всех полученных результатов.

    Было пять ключевых проверок, которые мы использовали для каждой платформы JavaScript.

    Контрольный список эксперимента

    1. Получать и отображать с помощью Google Search Console - правильно ли он отображается?
    2. Индексируется ли URL Google?
    3. Содержимое URL видно в кеше Google?
    4. Правильно ли отображаются ссылки в кеше Google?
    5. Поиск уникального контента со страницы фреймворка.
    6. Проверьте, был ли просканирован URL-адрес «* framework * / test /».

    Давайте пройдемся по этому контрольному списку, посмотрев на среду Angular 2. Если вы хотите выполнить те же шаги, посмотрите URL-адрес фреймворка здесь.

    1. Получать и отображать с помощью Google Search Console - правильно ли он отображается?

    Как мы видим, Google Search Console не удалось отобразить контент в красной рамке (контент, сгенерированный JavaScript), поэтому результатом этого теста, очевидно, является: FAIL .

    [ОБНОВЛЕНИЕ 28.09.2017 : оказалось, что из-за ошибки в Angular.io Quickstart что мы заполнили в нашем эксперименте, Google не смог отобразить эту страницу.

    В быстром запуске Angular.io были примеры кода, написанного в синтаксисе ES6: «let resolvedURL = url». Служба веб-рендеринга Google не поддерживает ES6, поэтому она не смогла отобразить код. Это был не только Google, так как Internet Explorer <= 10 не смог его отрендерить.

    Если вы разработчик, можете предположить, что Babel должен позаботиться об этом. Ну, не совсем 🙂 Ошибка была очевидна в загрузчике Angular, который должен был загрузить Babel. Кажется парадоксом, не так ли?

    В результате контент не был проиндексирован. Это коснулось не только экспериментальной подстраницы, но и всех веб-сайтов, основанных на Руководстве по быстрому запуску Angular 2.

    После исправления ошибки мы смогли проиндексировать контент.

    Подробнее об этом вы можете прочитать в моей статье « Все, что вы знаете об индексации JavaScript, неверно «.

    Существует множество доказательств того, что одна ошибка в вашем коде может сделать Google неспособным отобразить и проиндексировать вашу страницу. Вот пример, взятый из « Окончательное руководство по JavaScript SEO Томек Рудзки:

    «В декабре 2017 года Google деиндексировал несколько страниц Angular.io (официальный сайт Angular 2). Почему это случилось? Как вы уже догадались, единственная ошибка в их коде не позволила Google отобразить их страницу и вызвала массовую деиндексацию.

    С тех пор ошибка была исправлена.

    Вот как Игорь Минар из Angular.io объяснил (акцент мой):

    «Учитывая, что мы не меняли проблемный код в течение 8 месяцев и что мы испытали значительную потерю трафика, исходящего от поисковых систем, начиная примерно с 11 декабря 2017 года, я считаю, что что-то изменилось в сканерах за этот период времени, что вызвало большую часть сайт будет проиндексирован, что приведет к потере трафика ».

    Исправление вышеупомянутой ошибки рендеринга на Angular.io стало возможным благодаря опытной команде разработчиков JavaScript и тому факту, что они реализовали регистрация ошибок , Исправление ошибки позволило проблемным страницам снова проиндексироваться ».

    2. Индексируется ли Google адресом?

    URL правильно проиндексирован Google, так что это очевидно: УСПЕХ!

    3. Видно ли содержимое URL в кеше Google?

    Результаты:

    Google Cache неправильно проанализировал JavaScript и не отображает содержимое в красной рамке. Это очевидно: FAIL !

    4. Правильно ли отображаются ссылки в кеше Google?

    То же самое касается ссылок. Мы не можем видеть ни контент, ни ссылки, сгенерированные JavaScript. Этот тест также: FAIL !

    5. Поиск уникального контента со страницы фреймворка

    Google не может найти контент, созданный JavaScript. Мы также можем пометить этот шаг как: FAIL .

    6. Проверьте, был ли просканирован URL «* framework * / test /»

    Целью этого шага было проверить, может ли робот Googlebot сканировать сгенерированные JavaScript ссылки. Чтобы проверить это, у нас были сгенерированные JavaScript ссылки, указывающие на http://jsseo.expert/*framework*/test/ URL. В этом случае ссылка собиралась http://jsseo.expert/angular2/ ТЕСТ / (Опять же, не рабочая ссылка, так как это может испортить результаты нашего теста).

    Для отслеживания сканирования роботом Google мы использовали Loggly, а для двойной проверки данных вручную просматривали журналы.

    Вот результаты для Angular 2:

    Вот результаты для Angular 2:

    В этот момент вы, вероятно, видели этот результат в ближайшее время. Робот Googlebot не видел сгенерированный JavaScript контент, поэтому он не мог перейти по сгенерированной JavaScript ссылке внутри контента. Этот шаг определенно: FAIL .

    Возможно, вам интересно, как Googlebot справился с другими фреймворками JavaScript. Давайте пройдемся по окончательным результатам.

    Сканирование и индексация JavaScript - окончательные результаты

    Давайте начнем с основных конфигураций для всех платформ, используемых для этого эксперимента.

    Давайте начнем с основных конфигураций для всех платформ, используемых для этого эксперимента

    [ОБНОВЛЕНИЕ: Это изображение было обновлено, чтобы отразить дополнительную дополнительную информацию и исследования.]

    Что действительно интересно, так это то, что Googlebot полностью обрабатывает некоторые основные JavaScript-фреймворки, но не очень хорошо работает с Angular 2, когда он создан Google.

    [ОБНОВЛЕНИЕ: Как вы можете видеть, Google Fetch and Render смог правильно отобразить страницу, но контент не был проиндексирован. Если вам интересно, почему это произошло, прочитайте « JavaScript против Crawl Budget: готов первый игрок «.]

    Ценным выводом из этого эксперимента является то, что Googlebot полностью оснащен для сканирования и индексации React (inline), jQuery (inline), Vue и обычного JavaScript (inline). Он обрабатывает JavaScript, анализирует сгенерированный JavaScript контент и сканирует сгенерированные JavaScript ссылки. Однако вам нужно помнить, проходят ли эти ссылки PageRank или нет - это совсем другая тема - и захватывающая идея эксперимента.

    Это еще не конец эксперимента. Самая захватывающая часть результатов еще впереди.

    Давайте посмотрим, как Googlebot анализирует различные JS-фреймворки в зависимости от местоположения JavaScript. Начнем с jQuery.

    Результаты эксперимента - jQuery - внутренний и внешний вызов против Ajax

    При разработке этого эксперимента я получил множество патентов Google, связанных с эффективностью сканирования. Я ожидал, что Google может попытаться оптимизировать обработку JavaScript, поскольку сканирование JavaScript требует больше ресурсов по сравнению с обычным HTML и CSS.

    Внешние файлы JavaScript были размещены на одном сервере и в одном домене.

    Глядя на результаты выше, это когда все становится захватывающим и сложным. Мы ясно видим, что робот Google экономит ресурсы. С точки зрения Google обход встроенного кода JavaScript, вероятно, гораздо эффективнее, чем обработка всех дополнительных запросов и вызовов Ajax.

    Это также меняет то, что мы обычно рекомендуем разработчикам нашего клиента. Создание внешнего кода JavaScript может быть не лучшим решением, если этот код отвечает за генерацию внутренних ссылок. Вывод JavaScript-кода может испортить архитектуру веб-сайта! Мы можем с уверенностью предположить, что если робот Google не переходит по ссылкам, он также не передает PageRank или любые другие сигналы.

    Давайте посмотрим на инфраструктуру React JavaScript, созданную Facebook.

    Результаты эксперимента - Реакция - Встроенный против Внешнего

    Я был удивлен, увидев, что Googlebot так хорошо разбирает JavaScript-фреймворк Facebook. Я ожидаю, что Google будет полностью совместим с Angular (созданным Google). Этот эксперимент доказал обратное. Опять же, размещение JavaScript имеет огромное значение и делает сканирование JavaScript во внешних блоках / test / URL точно таким же, как и в случае различных JavaScript-фреймворков.

    Говоря об этом, давайте посмотрим на простой JavaScript, который, теоретически, должен быть самым простым для сканирования.

    Результаты эксперимента - Простой JavaScript - Внутренний и Внешний

    Опять же, не так много, чтобы добавить сюда. Я думаю, вы начинаете видеть интересную схему, которую демонстрирует этот эксперимент. Встроенный код полностью сканируется и индексируется, когда внешний каким-либо образом блокирует посещение Googlebot / test / URL.

    И последнее, но не менее важное, собственный JavaScript-фреймворк Google - Angular JS.

    Результаты эксперимента - угловой JS 1 и 2 - встроенный, внешний и объединенный

    В сообществе SEO мы привыкли к тому, что Google усложняет задачу, поэтому я не буду подробно останавливаться на этой теме. Достаточно сказать, что фреймворк Google был самым сложным и сложным для диагностики. К счастью, это также дало самые захватывающие результаты.

    После представления результатов этого эксперимента Angular JS всегда является наиболее обсуждаемой средой JavaScript. Позвольте мне немного рассказать о результатах выше.

    Мы ясно видим, что ни одна из англоязычных фреймворков не оптимизирована для SEO «из коробки». Теперь это интересно - они не были разработаны, чтобы быть SEO-дружественными без рендеринга на стороне сервера.

    Гуглеры это знают и признают.

    Проблема с клиентскими веб-сайтами Angular связана с отсутствием опыта у некоторых разработчиков Angular JS. Позвольте мне процитировать нескольких очень умных ребят из Angular JS, которые также несут ответственность за создание и разработку этой среды.

    Во время моего исследования я нашел короткое видео на YouTube, которое объясняет все это.

    Если вы ищете какие-либо конкурентные ключевые слова, это всегда будут сайты, представленные на сервере. И причина в том, что, хотя Google индексирует визуализированный HTML на стороне клиента, он еще не совершенен, и другие поисковые системы тоже этого не делают. Поэтому, если вы заботитесь о SEO, вам все равно нужно иметь контент, отображаемый на сервере.

    Джефф Уэлпли
    Конференция Angular U, 22-25 июня 2015 г., Hyatt Regency, Аэропорт Сан-Франциско
    «Angular 2 Server Rendering»

    Джефф Уэлпли работал с Тобиасом Бошем (инженер Google, часть основной команды Angular). Вы можете найти профили Джеффа и Тобиаса здесь: https://angular.io/about/ ,

    Я думаю, что цитата и видео выше объясняют все это. Если вы работаете с веб-сайтом Angular JS, я настоятельно рекомендую просмотреть все это и, конечно, отправить его разработчикам вашего клиента.

    С этим здесь трудно поспорить, и он дает нам (SEO) мощный аргумент против веб-сайтов Angular, представленных клиентом. Я не знаю, как вы, ребята, но у меня было много моих клиентов, которые рассматривали такие решения.

    Если вы создаете сайт Angular, он должен быть отображен на сервере.

    Не делать это просто плохое развитие. Можно использовать только клиентский Angular для контента, который не является общедоступным (недоступен для Googlebot). Например, панель CMS вашего сайта и т. Д.

    [ОБНОВЛЕНИЕ 3/5/18: Вот обновленная версия результатов эксперимента выше:

    Результаты эксперимента - встроенный, внешний или в комплекте?

    Как оказалось, размещение кода JavaScript (встроенного, внешнего или связанного) действительно важно для робота Googlebot. Это было действительно удивительно для меня, так как мы обычно советуем нашим клиентам использовать JavaScript везде, где это возможно. С другой стороны, мы знаем, что сканирование JavaScript для Google НАМНОГО дороже, чем сканирование простых веб-сайтов HTML / CSS. Я могу только догадываться, что загрузка внешнего JavaScript - это дополнительный шаг / стоимость для робота Google.

    Помимо технических моментов, этот эксперимент дал нам немного дополнительной информации, которую мы не ожидали. Информация, которая проливает свет на работу Google по сканированию и индексированию.

    Google Cache против Google Index?

    Гуглеры несколько раз упоминали, что кеш Google работает немного иначе, чем индекс Google. Тем не менее, я нахожу довольно интересным видеть, что контент можно кэшировать, но НЕ индексировать.

    Тем не менее, я нахожу довольно интересным видеть, что контент можно кэшировать, но НЕ индексировать

    https://www.google.com/search?q=%22n+a+latest+survey+of+world+cities+based+on+Tripadvisor+user+reviews%2C+Moscow+was+rated+the+3rd + худший + для + туристов. + Даже + его + самый + убежденным + противник% 22 & OQ =% 22n + а + последний + опрос + в + мире + города + основана + на + Tripadvisor + пользовательские + отзывы% 2C + Москва + было + рейтинг + + третий + худший + для + туристов + даже + его + самый + убежденным + противник% 22 & AQS = chrome..69i57.699j0j4 & {Google: bookmarkBarPinned}. SourceId = хром & {Google: omniboxStartMarginParameter} т.е. = UTF-8 https://www

    Это действительно ставит огромный знак вопроса даже при просмотре кеша Google при диагностике потенциальных технических проблем SEO и определенно подтверждает позицию Google по кешу Google, являющуюся отдельной сущностью от индекса Google.

    [ОБНОВЛЕНИЕ 25.05.2017: Получив отзывы об этом эксперименте от Джона Мюллера и увидев разные результаты в разных браузерах / устройствах, мы не будем продолжать смотреть данные кеша, продолжая этот эксперимент. Он не отражает способности робота Googlebot сканировать или индексировать.]

    Методология позади эксперимента

    1. Целью эксперимента было достижение 100% прозрачности и точности достигнутых результатов. Чтобы убедиться в этом, мы сосредоточились на нескольких метриках.

    2. Эксперимент был настроен на отдельный новый домен без внешних ссылок, истории и т. Д.

    Перед развертыванием сайта в реальном времени мы настроили:

    • Loggly (доступ к журналам сервера проще)
    • Хранение журнала сервера (Loggly хранит журналы сервера в течение ограниченного периода времени)
    • NewRelic - мы использовали его, чтобы убедиться в отсутствии аномалий, простоев и т. Д., Которые могут повлиять на сканирование и индексирование
    • OnPage.org - мы используем OnPage.org для технического SEO, но в этом случае мы использовали его для отслеживания времени безотказной работы
    • Statuscake.com - также для мониторинга работоспособности. Недокументированное время простоя может повлиять на наши сканирующие данные, и мы хотели убедиться, что это не так
    • Консоль поиска Google - для получения URL-адресов как робот Google
    • Гугл Аналитика

    3. Мы удостоверились, что эксперимент держался в секрете, когда мы собирали данные. Если сделать его общедоступным, откроется опция для проверки журнала и сканирования данных (например, внешние ссылки на / test / URL, твиты и т. Д.).

    4. Мы проверили, правильно ли проиндексированы URL-адреса фреймворков, чтобы убедиться, что робот Googlebot мог сканировать и индексировать контент по этим URL-адресам.

    5. Мы добавили одна страница сгенерирована на 100% HTML иметь URL «контрольной группы», где мы могли бы проверить, добавлены ли наша методология и тесты.

    Чтобы быть еще более прозрачными, мы опубликовали код, используемый для нашего эксперимента на Github.

    Github - документация эксперимента

    Этот эксперимент имеет смысл, только если мы полностью прозрачны в отношении кода и методологии, которые мы использовали. Вы можете найти полный репозиторий Github со всем кодом, использованным для построения нашего эксперимента здесь https://github.com/kamilgrymuza/jsseo ,

    com/kamilgrymuza/jsseo   ,

    Эксперимент продолжается

    Я действительно взволнован тем, чего нам удалось достичь с помощью этого простого эксперимента, но я знаю, что это только начало.

    Я считаю, что этот эксперимент - первый шаг к построению открытого общения между разработчиками JavaScript и SEO. Фреймворки JavaScript будут только популярнее, но в то же время SEO не исчезнет.

    Мы все знаем, что Google не облегчает этот процесс, и эксперименты, подобные представленному здесь, могут сэкономить сотни тысяч долларов, потраченных на разработку сайта, что приведет к плохим результатам SEO.

    Не стесняйтесь связаться со мной или Камиль с вашими вопросами. Если вы разработчик, было бы здорово, если бы вы могли внести свой вклад в нашу инфраструктуру / конфигурацию JS-репозитория Github. Просто напишите мне, и мы выполним это, чтобы вы могли быть уверены, что ваш код оптимизирован для SEO.

    [Обновление № 1]

    В течение нескольких дней после первых твитов (я представлял этот пример на Search Marketing Summit, Сидней и Big Digital, Аделаида), Джон Мюллер создал группу JavaScript SEO. Здорово, что Джон идет в этом направлении. JavaScript вызывает серьезные проблемы с SEO, если он не реализован должным образом. Подобные инициативы могут помочь многим веб-мастерам.

    Вы можете присоединиться к группе Вот следить за обсуждениями JavaScript SEO. Я уже получил массу ценных отзывов об этом эксперименте от Джона. Я обязательно буду использовать его при продолжении нашего эксперимента и исследований.

    [Обновление № 2]

    Если вам интересно узнать следующий шаг в моем путешествии и узнать, были ли результаты этого эксперимента правильными или нет, тогда вам нужно прочитать « Все, что вы знаете о JavaScript, индексация неверна " сразу.

    Кроме того, я настоятельно рекомендую вам прочитать Окончательное руководство по JavaScript SEO «.

    1. Получать и отображать с помощью Google Search Console - правильно ли он отображается?
    2. Индексируется ли Google адресом?
    3. Видно ли содержимое URL в кеше Google?
    4. Правильно ли отображаются ссылки в кеше Google?
    Google Cache против Google Index?
    Я никогда не был поклонником этого метода; однако имеет ли это смысл с технической точки зрения?
    Индексируется ли URL Google?
    Содержимое URL видно в кеше Google?
    Правильно ли отображаются ссылки в кеше Google?
    1. Получать и отображать с помощью Google Search Console - правильно ли он отображается?
    Профиль
    Реклама
    Деловой календарь
    Пн Вт Ср Чт Пт Сб Вс
     
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    Реклама
       
    Sti.lg.ua © 2016