Поисковая оптимизация - Search engine optimization

Поисковая оптимизация ( SEO ) является процесс улучшения качества и количества трафика веб - сайта к веб - сайт или веб - страницы от поисковых систем . SEO нацелен на неоплачиваемый трафик (известный как «естественные» или « органические » результаты), а не на прямой или платный трафик . Неоплаченный трафик может исходить от различных видов поиска, включая поиск изображений , видео поиск , академический поиск , поиск новостей и отраслевые вертикальные поисковые системы.

В качестве стратегии интернет-маркетинга SEO учитывает, как работают поисковые системы, запрограммированные на компьютере алгоритмы, которые диктуют поведение поисковой системы, что люди ищут, фактические условия поиска или ключевые слова, вводимые в поисковые системы, и какие поисковые системы предпочитают их целевая аудитория. . SEO выполняется, потому что веб-сайт будет получать больше посетителей из поисковой системы, когда веб-сайты занимают более высокое место на странице результатов поисковой системы (SERP). Эти посетители потенциально могут быть преобразованы в клиентов.

История

Веб-мастера и поставщики контента начали оптимизировать веб-сайты для поисковых систем в середине 1990-х годов, когда первые поисковые системы каталогизировали раннюю сеть . Первоначально всем веб-мастерам нужно было только отправить адрес страницы или URL-адрес различным системам, которые отправили бы поисковому роботу для сканирования этой страницы, извлечения из нее ссылок на другие страницы и возврата информации, найденной на странице для индексации. . В этом процессе паук поисковой системы загружает страницу и сохраняет ее на собственном сервере поисковой системы. Вторая программа, известная как индексатор , извлекает информацию о странице, такую ​​как слова, которые она содержит, где они расположены, любой вес для определенных слов, а также все ссылки, содержащиеся на странице. Вся эта информация затем помещается в планировщик для последующего сканирования.

Владельцы веб-сайтов осознали ценность высокого рейтинга и видимости в результатах поисковых систем, создавая возможности как для белых, так и для черных специалистов по SEO. По словам отраслевого аналитика Дэнни Салливана , фраза «поисковая оптимизация», вероятно, вошла в употребление в 1997 году. Салливан считает Брюса Клея одним из первых, кто популяризировал этот термин.

Ранние версии алгоритмов поиска полагались на предоставленную веб-мастером информацию, такую ​​как метатег ключевого слова или файлы индекса в таких системах, как ALIWEB . Мета-теги предоставляют руководство по содержанию каждой страницы. Однако использование метаданных для индексации страниц оказалось менее чем надежным, поскольку выбор веб-мастером ключевых слов в метатеге потенциально может быть неточным представлением фактического содержания сайта. Некорректные данные в метатегах, например, те, которые не были точными, полными или ложными атрибутами, создавали возможность неверной характеристики страниц в нерелевантных поисках. Поставщики веб-контента также манипулировали некоторыми атрибутами в исходном HTML- коде страницы, пытаясь занять высокие позиции в поисковых системах. К 1997 году разработчики поисковых систем осознали, что веб-мастера прилагают усилия, чтобы получить высокий рейтинг в своей поисковой системе, и что некоторые веб-мастера даже манипулируют своим рейтингом в результатах поиска, наполняя страницы избыточными или нерелевантными ключевыми словами. Ранние поисковые системы, такие как Altavista и Infoseek , скорректировали свои алгоритмы, чтобы веб-мастера не могли манипулировать рейтингом.

В значительной степени полагаясь на такие факторы, как плотность ключевых слов , которые находились исключительно под контролем веб-мастеров, ранние поисковые системы страдали от злоупотреблений и манипуляций с ранжированием. Чтобы предоставлять лучшие результаты своим пользователям, поисковые системы должны были адаптироваться, чтобы их страницы результатов отображали наиболее релевантные результаты поиска, а не несвязанные страницы, заполненные многочисленными ключевыми словами недобросовестными веб-мастерами. Это означало отход от сильной зависимости от плотности терминов к более целостному процессу оценки семантических сигналов. Поскольку успех и популярность поисковой системы определяется ее способностью выдавать наиболее релевантные результаты для любого заданного поиска, низкое качество или нерелевантные результаты поиска могут побудить пользователей искать другие источники поиска. В ответ поисковые системы разработали более сложные алгоритмы ранжирования с учетом дополнительных факторов, которыми веб-мастерам было труднее манипулировать.

Компании, использующие чрезмерно агрессивные методы, могут исключить веб-сайты своих клиентов из результатов поиска. В 2005 году Wall Street Journal сообщил о компании Traffic Power , которая якобы использовала высокорисковые методы и не сообщала об этих рисках своим клиентам. Журнал Wired сообщил, что та же компания подала в суд на блогера и SEO-специалиста Аарона Уолла за то, что он написал о запрете. Google, Мэтт Каттс позже подтвердил , что Google действительно фактически запрет движения власти и некоторые из его клиентов.

Некоторые поисковые системы также обратились к индустрии SEO и являются частыми спонсорами и гостями конференций, веб-чатов и семинаров по SEO. Основные поисковые системы предоставляют информацию и рекомендации, помогающие оптимизировать веб-сайт. У Google есть программа Sitemaps, которая помогает веб-мастерам узнать, есть ли у Google какие-либо проблемы с индексированием их веб-сайтов, а также предоставляет данные о посещаемости веб-сайта Google. Инструменты Bing для веб-мастеров позволяют веб-мастерам отправлять карту сайта и веб-каналы, позволяют пользователям определять «скорость сканирования» и отслеживать статус индекса веб-страниц.

В 2015 году сообщалось, что Google разрабатывает и продвигает мобильный поиск как ключевую функцию в будущих продуктах. В ответ многие бренды начали использовать другой подход к своим стратегиям интернет-маркетинга.

Отношения с Google

В 1998 году два аспиранта Стэнфордского университета , Ларри Пейдж и Сергей Брин , разработали "Backrub", поисковую машину, которая опиралась на математический алгоритм для оценки известности веб-страниц. Число, вычисляемое алгоритмом, PageRank , является функцией количества и силы входящих ссылок . PageRank оценивает вероятность того, что данная страница будет достигнута веб-пользователем, который случайным образом просматривает веб-страницы и переходит по ссылкам с одной страницы на другую. Фактически это означает, что некоторые ссылки сильнее других, так как страница с более высоким PageRank с большей вероятностью будет достигнута случайным веб-серфером.

Пейдж и Брин основали Google в 1998 году. Google привлекал постоянных поклонников среди растущего числа интернет- пользователей, которым нравился его простой дизайн. Учитывались внешние факторы (такие как PageRank и анализ гиперссылок), а также факторы на странице (такие как частота ключевых слов, метатеги , заголовки, ссылки и структура сайта), чтобы Google мог избежать манипуляций, наблюдаемых в поисковых системах. при этом учитывались только факторы на странице для их рейтинга. Хотя PageRank было сложнее обыгрывать , веб-мастера уже разработали инструменты и схемы построения ссылок, чтобы повлиять на поисковую систему Inktomi , и эти методы оказались аналогичным образом применимы к игровому PageRank. Многие сайты сосредоточены на обмене, покупке и продаже ссылок, часто в массовом масштабе. Некоторые из этих схем или ссылочных ферм предполагали создание тысяч сайтов с единственной целью - рассылать ссылочный спам .

К 2004 году поисковые системы включили в свои алгоритмы ранжирования широкий спектр нераскрытых факторов, чтобы уменьшить влияние манипуляций со ссылками. В июне 2007 года Саул Ханселл из New York Times заявил, что Google ранжирует сайты, используя более 200 различных сигналов. Ведущие поисковые системы, Google, Bing и Yahoo , не раскрывают алгоритмы, которые они используют для ранжирования страниц. Некоторые специалисты по SEO изучили различные подходы к поисковой оптимизации и поделились своим личным мнением. Патенты, относящиеся к поисковым системам, могут предоставить информацию для лучшего понимания поисковых систем. В 2005 году Google начал персонализировать результаты поиска для каждого пользователя. В зависимости от истории предыдущих поисков Google создавал результаты для авторизованных пользователей.

В 2007 году Google объявил кампанию против платных ссылок, передающих PageRank. 15 июня 2009 года Google сообщил, что они приняли меры для смягчения последствий изменения рейтинга PageRank за счет использования атрибута nofollow в ссылках. Мэтт Каттс , известный инженер-программист в Google, объявил, что Google Bot больше не будет обрабатывать любые ссылки nofollow таким же образом, чтобы поставщики услуг SEO не использовали nofollow для формирования PageRank. В результате этого изменения использование nofollow привело к испарению PageRank. Чтобы избежать описанного выше, инженеры SEO разработали альтернативные методы, которые заменяют теги nofollow на обфусцированный JavaScript и, таким образом, позволяют формировать PageRank. Кроме того, было предложено несколько решений, которые включают использование фреймов , Flash и JavaScript.

В декабре 2009 года Google объявил, что будет использовать историю веб-поиска всех своих пользователей для заполнения результатов поиска. 8 июня 2010 года была анонсирована новая система веб-индексирования под названием Google Caffeine . Google Caffeine, созданный для того, чтобы пользователи могли находить результаты новостей, сообщения на форумах и другой контент гораздо раньше после публикации, чем раньше, изменил способ обновления индекса Google, чтобы все было быстрее, чем раньше. По словам Кэрри Граймс, разработчика программного обеспечения, анонсировавшего использование кофеина для Google, «кофеин обеспечивает на 50 процентов более свежие результаты при поиске в Интернете, чем наш последний индекс ...». Мгновенный поиск в реальном времени Google был введен в конце 2010 года в попытке помочь сделать результаты поиска более актуальными и актуальными. Исторически администраторы сайтов тратили месяцы или даже годы на оптимизацию веб-сайта для повышения рейтинга в поисковой выдаче. С ростом популярности социальных сетей и блогов ведущие поисковые системы внесли изменения в свои алгоритмы, чтобы свежий контент мог быстро ранжироваться в результатах поиска.

В феврале 2011 года Google объявил об обновлении Panda , которое наказывает веб-сайты, содержащие контент, дублированный с других веб-сайтов и источников. Исторически сложилось так, что веб-сайты копировали контент друг с друга и благодаря этой практике получали выгоду в поисковых системах. Однако Google внедрил новую систему, которая наказывает сайты, содержание которых не является уникальным. Google Penguin 2012 попытался наказать веб-сайты, которые использовали манипулятивные методы для повышения своего рейтинга в поисковой системе. Хотя Google Penguin был представлен как алгоритм, нацеленный на борьбу со спамом, он действительно фокусируется на спам-ссылках, измеряя качество сайтов, с которых они поступают. Обновление Google Hummingbird 2013 года включало изменение алгоритма, призванное улучшить обработку естественного языка Google и семантическое понимание веб-страниц. Система обработки языка Hummingbird подпадает под недавно признанный термин « разговорный поиск », когда система уделяет больше внимания каждому слову в запросе, чтобы страницы лучше соответствовали значению запроса, а не нескольким словам. Что касается изменений, внесенных в оптимизацию поисковых систем, для издателей и авторов контента, Hummingbird предназначен для решения проблем, избавляясь от нерелевантного контента и спама, позволяя Google создавать высококачественный контент и полагаться на них как на «доверенных» авторов. .

В октябре 2019 года Google объявил, что начнет применять модели BERT для поисковых запросов на английском языке в США. Двунаправленные представления кодировщика от трансформаторов (BERT) были еще одной попыткой Google улучшить обработку естественного языка, но на этот раз для того, чтобы лучше понимать поисковые запросы своих пользователей. С точки зрения поисковой оптимизации, BERT призван упростить подключение пользователей к релевантному контенту и повысить качество трафика, поступающего на веб-сайты, которые ранжируются на странице результатов поиска.

Методы

Индексирование

Поисковые системы используют сложные математические алгоритмы для определения того, какие веб-сайты ищет пользователь. На этой диаграмме, где каждый кружок представляет веб-сайт, программы, иногда называемые пауками, проверяют, какие сайты ссылаются на какие другие сайты, со стрелками, представляющими эти ссылки. Предполагается, что веб-сайты, получающие больше входящих или более сильных ссылок, имеют большее значение и то, что ищет пользователь. В этом примере, поскольку веб-сайт B является получателем многочисленных входящих ссылок, он занимает более высокие позиции в поиске в Интернете. И ссылки «переносятся», так что веб-сайт C, даже если он имеет только одну входящую ссылку, имеет входящую ссылку с очень популярного сайта (B), а сайт E - нет. Примечание: проценты округлены.

Ведущие поисковые системы, такие как Google, Bing и Yahoo !, используют сканеры для поиска страниц с результатами алгоритмического поиска. Страницы, на которые есть ссылки со страниц, проиндексированных другими поисковыми системами, не нужно отправлять, потому что они обнаруживаются автоматически. Yahoo! Directory и DMOZ , два основных каталога, которые закрылись в 2014 и 2017 годах соответственно, требовали ручной подачи и редакционной проверки людьми. Google предлагает консоль поиска Google , для которой можно бесплатно создать и отправить канал XML Sitemap, чтобы гарантировать, что все страницы будут найдены, особенно страницы, которые невозможно обнаружить путем автоматического перехода по ссылкам в дополнение к их консоли отправки URL. Yahoo! раньше использовала платную службу отправки, которая гарантировала сканирование по цене за клик ; однако эта практика была прекращена в 2009 году.

Сканеры поисковых систем могут учитывать ряд различных факторов при сканировании сайта. Не каждая страница индексируется поисковыми системами. Расстояние между страницами от корневого каталога сайта также может быть фактором, определяющим, будут ли страницы сканироваться.

Сегодня большинство людей ищут в Google с помощью мобильных устройств. В ноябре 2016 года Google объявил о серьезных изменениях в способе сканирования веб-сайтов и начал делать свой индекс в первую очередь мобильным, что означает, что мобильная версия данного веб-сайта становится отправной точкой для того, что Google включает в свой индекс. В мае 2019 года Google обновил механизм рендеринга своего краулера до последней версии Chromium (74 на момент анонса). Google сообщил, что они будут регулярно обновлять движок рендеринга Chromium до последней версии. В декабре 2019 года Google начал обновлять строку User-Agent своего сканера, чтобы отразить последнюю версию Chrome, используемую их службой рендеринга. Задержка заключалась в том, чтобы дать веб-мастерам время обновить свой код, который отвечал на определенные строки User-Agent бота. Google провел оценки и был уверен, что влияние будет незначительным.

Предотвращение сканирования

Чтобы избежать нежелательного содержания в индексах поиска, веб-мастера могут дать указание "паукам" не сканировать определенные файлы или каталоги через стандартный файл robots.txt в корневом каталоге домена. Кроме того, страницу можно явно исключить из базы данных поисковой системы с помощью метатега, специфичного для роботов (обычно <meta name = "robots" content = "noindex">). Когда поисковая система посещает сайт, первым просканированным файлом является robots.txt, расположенный в корневом каталоге . Затем файл robots.txt анализируется и сообщает роботу, какие страницы не следует сканировать. Поскольку сканер поисковой системы может хранить кэшированную копию этого файла, он может иногда сканировать страницы, сканирование которых веб-мастер не желает. Страницы, сканирование которых обычно предотвращается, включают страницы для входа в систему, такие как корзины покупок, и пользовательский контент, например результаты внутреннего поиска. В марте 2007 года Google предупредил веб-мастеров, что они должны предотвратить индексацию результатов внутреннего поиска, поскольку эти страницы считаются поисковым спамом. В 2020 году Google отменил стандарт (и открыл свой код в открытом доступе ) и теперь рассматривает его как подсказку, а не директиву. Чтобы гарантировать, что страницы не проиндексированы, необходимо включить метатег роботов на уровне страницы.

Повышение известности

Различные методы могут повысить известность веб-страницы в результатах поиска. Перекрестные ссылки между страницами одного и того же веб-сайта для предоставления большего количества ссылок на важные страницы могут улучшить его видимость. Дизайн страницы заставляет пользователей доверять сайту и хотеть остаться, как только они его найдут. Когда люди отказываются от сайта, это идет вразрез с сайтом и влияет на их доверие. Написание контента, который включает часто используемые ключевые слова, чтобы соответствовать широкому кругу поисковых запросов, будет иметь тенденцию к увеличению трафика. Обновление контента, чтобы поисковые системы часто возвращались назад, может придать сайту дополнительный вес. Добавление релевантных ключевых слов к метаданным веб-страницы, включая тег заголовка и метаописание , будет иметь тенденцию улучшать релевантность поисковых списков сайта, тем самым увеличивая посещаемость. Канонизация URL-адресов веб-страниц, доступных через несколько URL-адресов, с использованием элемента канонической ссылки или с помощью переадресации 301, может помочь убедиться, что ссылки на разные версии URL-адреса учитываются в рейтинге популярности ссылок страницы. Они известны как входящие ссылки, которые указывают на URL-адрес и могут учитываться в рейтинге популярности ссылки страницы, влияя на доверие к веб-сайту.

Кроме того, в последнее время Google уделяет больше внимания перечисленным ниже элементам для поисковой выдачи (позиция в рейтинге поисковых систем).

  • Версия HTTPS (безопасный сайт)
  • Скорость страницы
  • Структурированные данные
  • Совместимость с мобильными устройствами
  • AMP (ускоренные мобильные страницы)
  • БЕРТ

Белая шляпа против техник черной шляпы

Методы SEO можно разделить на две большие категории: методы, которые компании поисковых систем рекомендуют как часть хорошего дизайна («белая шляпа»), и методы, которые поисковые системы не одобряют («черная шляпа»). Поисковые системы стараются минимизировать влияние последних, в том числе спам-индексации . Отраслевые комментаторы классифицировали эти методы и практикующих, которые их применяют, либо как белые , либо как черные . Белые шляпы, как правило, дают результаты, которые сохраняются надолго, в то время как черные предполагают, что их сайты в конечном итоге могут быть заблокированы временно или навсегда, как только поисковые системы обнаружат, что они делают.

Методика SEO считается белой шляпой, если она соответствует рекомендациям поисковых систем и не содержит обмана. Поскольку руководство для поисковых систем не записано в виде серии правил или заповедей, это важное различие, которое следует отметить. Белая шляпа SEO - это не только следование рекомендациям, но и обеспечение того, чтобы контент, который индексирует поисковая система и впоследствии ранжировал, был таким же контентом, который увидит пользователь. Совет в белой шляпе обычно сводится к созданию контента для пользователей, а не для поисковых систем, а затем к тому, чтобы сделать этот контент легкодоступным для онлайн-алгоритмов «пауков», вместо того, чтобы пытаться обмануть алгоритм по его прямому назначению. Белая шляпа SEO во многом похожа на веб-разработку, которая способствует доступности, хотя они не идентичны.

Black Hat SEO пытается улучшить рейтинг способами, которые не одобряются поисковыми системами, или включают обман. Одна из техник черной шляпы использует скрытый текст либо в виде текста, окрашенного аналогично фону, либо в невидимом блоке div , либо в виде текста , расположенного за пределами экрана. Другой метод дает другую страницу в зависимости от того, запрашивается ли страница посетителем-человеком или поисковой системой, метод, известный как маскировка . Еще одна категория, которую иногда используют, - это серая SEO . Это что-то среднее между подходами «черная шляпа» и «белая шляпа», когда используемые методы позволяют избежать наказания сайта, но не способствуют созданию лучшего контента для пользователей. Gray hat SEO полностью сосредоточен на повышении рейтинга в поисковых системах.

Поисковые системы могут наказывать сайты, которые они обнаруживают, используя методы черной или серой шляпы, либо снижая их рейтинг, либо полностью удаляя их списки из своих баз данных. Такие штрафы могут применяться либо автоматически алгоритмами поисковых систем, либо при проверке сайта вручную. Одним из примеров было удаление Google в феврале 2006 года как BMW Germany, так и Ricoh Germany за использование обманных методов. Обе компании, однако, быстро извинились, исправили проблемные страницы и были восстановлены на странице результатов поисковой системы Google.

Как маркетинговая стратегия

SEO не является подходящей стратегией для каждого веб-сайта, и другие стратегии интернет-маркетинга могут быть более эффективными, например, платная реклама через кампании с оплатой за клик (PPC) , в зависимости от целей оператора сайта. Маркетинг в поисковых системах (SEM) - это практика разработки, запуска и оптимизации рекламных кампаний в поисковых системах. Его отличие от SEO проще всего описать как разницу между платным и неоплачиваемым приоритетом в результатах поиска. SEM уделяет больше внимания известности, чем релевантности; Разработчикам веб-сайтов следует уделять SEM первостепенное значение с точки зрения видимости, поскольку большинство из них переходят к основным спискам своих поисковых запросов. Успешная маркетинговая кампания в Интернете может также зависеть от создания высококачественных веб-страниц для привлечения и убеждения пользователей Интернета, настройки программ аналитики, позволяющих владельцам сайтов измерять результаты, и повышения коэффициента конверсии сайта . В ноябре 2015 года Google выпустил для общественности полную 160-страничную версию своих рекомендаций по оценке качества поиска, в которой говорилось о смещении их внимания к «полезности» и локальному мобильному поиску . В последние годы рынок мобильной связи резко вырос, обогнав использование настольных компьютеров, как показал StatCounter в октябре 2016 года, когда они проанализировали 2,5 миллиона веб-сайтов и обнаружили, что 51,3% страниц были загружены с помощью мобильных устройств. Google была одной из компаний, которые используют популярность использования мобильных устройств, поощряя веб-сайты использовать свою консоль поиска Google , тест на удобство мобильных устройств, который позволяет компаниям сравнивать свой веб-сайт с результатами поисковой системы и определять, насколько удобен для пользователя их сайты есть. Чем ближе друг к другу ключевые слова, тем выше их рейтинг по ключевым словам.

SEO может обеспечить адекватную окупаемость инвестиций . Однако поисковым системам не платят за органический поисковый трафик, их алгоритмы меняются, и нет никаких гарантий продолжения переходов. Из-за отсутствия гарантии и неопределенности бизнес, который сильно зависит от трафика поисковых систем, может понести серьезные убытки, если поисковые системы перестанут отправлять посетителей. Поисковые системы могут изменять свои алгоритмы, влияя на рейтинг веб-сайта в поисковых системах, что может привести к серьезной потере трафика. По словам генерального директора Google Эрика Шмидта, в 2010 году Google внес более 500 изменений в алгоритм - почти 1,5 раза в день. Для операторов веб-сайтов разумной деловой практикой считается освобождение от зависимости от трафика поисковых систем. Помимо доступности с точки зрения поисковых роботов (о чем говорилось выше), доступность для пользователей в Интернете становится все более важной для SEO.

Международные рынки

Методы оптимизации хорошо адаптированы к доминирующим поисковым системам на целевом рынке. Рыночные доли поисковых систем варьируются от рынка к рынку, как и конкуренция. В 2003 году Дэнни Салливан заявил, что на Google приходится около 75% всех поисковых запросов. На рынках за пределами США доля Google часто больше, и Google остается доминирующей поисковой системой в мире по состоянию на 2007 год. По состоянию на 2006 год доля Google на рынке Германии составляла 85–90%. В то время в США были сотни SEO-фирм, а в Германии их было всего около пяти. По данным Hitwise, по состоянию на июнь 2008 года рыночная доля Google в Великобритании приближалась к 90% . Эта доля рынка достигнута в ряде стран.

По состоянию на 2009 год существует всего несколько крупных рынков, на которых Google не является ведущей поисковой системой. В большинстве случаев, когда Google не является лидером на определенном рынке, он отстает от местного игрока. Наиболее яркими примерами рынков являются Китай, Япония, Южная Корея, Россия и Чехия, где соответственно Baidu , Yahoo! Япония , Naver , Яндекс и Сезнам - лидеры рынка.

Для успешной поисковой оптимизации для международных рынков может потребоваться профессиональный перевод веб-страниц, регистрация доменного имени с доменом верхнего уровня на целевом рынке и веб-хостинг , предоставляющий локальный IP-адрес . В остальном фундаментальные элементы поисковой оптимизации по сути одинаковы, независимо от языка.

Юридические прецеденты

17 октября 2002 года SearchKing подала иск в Окружной суд США , Западный округ Оклахомы, против поисковой системы Google. SearchKing утверждал, что тактика Google по предотвращению спама представляет собой злонамеренное вмешательство в договорные отношения. 27 мая 2003 г. суд удовлетворил ходатайство Google об отклонении жалобы, поскольку SearchKing «не представил иск, по которому может быть предоставлена ​​компенсация».

В марте 2006 года KinderStart подала иск против Google из-за рейтинга в поисковых системах. Сайт KinderStart был удален из индекса Google перед судебным иском, и объем трафика на сайт упал на 70%. 16 марта 2007 г. Окружной суд США в Северном округе Калифорнии ( отделение Сан-Хосе ) отклонил жалобу KinderStart без разрешения на внесение поправок и частично удовлетворил ходатайство Google о санкциях по Правилу 11 против адвоката KinderStart, потребовав от него оплатить часть расходов Google. судебные издержки.

Смотрите также

Примечания

внешние ссылки

Послушайте эту статью ( 22 минуты )
Разговорный значок Википедии
Этот аудиофайл был создан на основе редакции этой статьи от 20 мая 2008 г. и не отражает последующих правок. ( 2008-05-20 )