Топ
Реклама
Рубрика
Архивы
Мобильная версия блога
[QR-Code]

Архив материалов с меткой «Google»

В центре внимания  – Google, которой, наверное, быть такой фигурой не хотел, но к «великим мира сего» интерес всегда нездоровый. На свете так много ротозеев, которые готовы внимать самым «жёлтым» новостям о том, что кто-то оступился, спился, упал и разбился, разорился, даже женился, сгорел или попался, в общем, не важно, лишь бы скандал получился.

Автор: Chief | Дата: 10.03.2011 | Комментариев: 21
Далее

Много событий на сегодняшний день – очередной, какой-то неожиданный апдейт тИЦ Яндекса, в который блог стал обладателем цифры 70. Это, конечно, событие, но, думаю, скорее «побочный эффект» от усилий по продвижению в связи с конкурсом BestMasterиZация.

Сам конкурс (наконец-то) закончился сегодня же в 18.00 по воле организатора. Напомню, что главной задачей мероприятия стало продвижение конкурсной статьи с анкором «BestMasterиZация» в ТОП поисковой системы Google в московской выдаче.

Результат? Я победил…  Вспомнился даже фильм: «Какие ваши доказательства?». А вот:

Автор: Chief | Дата: 10.12.2010 | Комментариев: 70
Далее

С Google вечно что-то происходит. Он не хочет быть таким, как все (хотя никто не хочет), чудит и настойчиво ищет пути к тотальному превосходству. Стать недосягаемым ему не дает обычное людское сообщество, которое возмущается «нечаянным» сбором личной информации по WIFI, представляет поисковик в виде маньяка-мороженщика, судится с ним и не дает пройти парадным шагом по Красной площади доброй половине его сотрудников.

Рунет недовольно ворчит (около seo-шная его часть), озадаченный долгим пересчетом показателя PageRank, а Google в эйфории от песенок Джастина Бибера (Justin Drew Bieber)и, знай, забавляется с буквами в своём логотипе.

Всем сомневающимся гигант периодически преподносит сюрпризы, например, сегодняшнее новшество: мгновенный поиск.

Автор: Chief | Дата: 08.09.2010 | Комментариев: 45
Далее

Совсем недавно в Сети появился  первый в мире общедоступный «облачный» компьютер icloud. Слово «облако» (cloud) стали использовать  в  90-х годах прошлого века для  образного обозначения Интернета, как чего-то загадочного, непостижимого, быстро меняющегося. Тогда же и появилось определение: «…информация постоянно хранится на серверах в Сети и временно сохраняется на стороне клиента – например, на настольных компьютерах, планшетах, ноутбуках, мини-компьютерах…».

Автор: Chief | Дата: 05.06.2009 | Комментариев: 12
Далее

Сугубо компьютерный журнал «Chip»порадовал очень интересной статьей о ранжировании сайтов по Гуглу. На многочисленных seo-шных блогах такую информацию выуживаешь по крупинке, а тут подробно и просто о PageRank.

«Успех или неудача веб-сайтов зависят от небольшого алгоритма – PageRank от Google. Начнем с прописных истин: Интернет огромен, а веб-страницы, наоборот, малы. Многие из них предлагают похожий контент. При этом отдельному сайту очень трудно подняться над этой массой. Пользователь сможет найти его только в том случае, если запустит поиск Google и страница появится в самом верху списка. Правила Интернета отличаются жесткостью и напоминают о дарвиновской борьбе за выживание – это правила Google. Однако если существуют сотни похожих страниц, то какая из них окажется наверху, а какая будет загнана в конец списка? Ответ на этот вопрос основатели Google Ларри Пейдж и Сергей Брин заложили в формулу алгоритма PageRank.

Тот, кто использует его, может сделать свое присутствие в Интернете заметным. Тот, кто пренебрегает им, будет наказан. Однако как же работает PageRank, и в каком случае веб-страница попадает в верхнюю часть списка? PageRank возник из простого и гениального логического рассуждения.

Для каждой веб-страницы найдется определенное количество страниц, которые дают на нее гиперссылку.

– Каждая из этих веб-страниц, в свою очередь, тоже имеет PageRank.

– Ссылка со страницы B на страницу A, как при голосовании, может считаться одним голосом, отданным B за A.

– PageRank страницы B придает голосу , отданному за A, дополнительный вес. Следовательно, чем выше PageRank страницы B, тем лучше.

В качестве дальнейшего фактора рассматривается общее число ссылок, которые находятся на странице B. Чем меньше число ссылок на странице B, тем лучше это для PageRank страницы A. Важно следующее: PageRank рассчитывается не для какого-то веб- продукта, а каждой отдельной страницы. Поэтому может случиться так, что определенный документ на веб- сервере будет иметь более высокий PageRank, чем домашняя страница, к которой он принадлежит.

В виде формулы вся игра вокруг PageRank выглядит следующим образом:

– PR(A) = (1-d) + d (PR(T1)/C(T1) + … + PR(Tn)/C(Tn))

Это читается так: PageRank страницы A складывается из PageRank страниц T1…Tn, разделенных соответственно на количество ссылок на этих страницах. При этом следует еще учесть коэффициент затухания.

Принцип PageRank легко объяснить, если предположить, что весь Интернет состоит всего из четырех страниц. Итак, даны страницы A, B, C и D. Каждая имеет исходный вес PageRank, равный 1. Значения, взятые вместе, соответствуют всей условной сети из четырех страниц. Для первого примера будем исходить из того, что каждая ные во время выполнения шага 1, то вместо формулы PR (B) = 1/2 + 1/3 + 1/1 получается: PR (B) = 1,33/2 + 0,5/3 + 0,33/1 Округленный результат равен 1,62. Конечно, новое вычисление значения PageRank для B изменит рейтинги PageRank для страниц A, C и D. А новое значение D, в свою очередь, изменит значение B. Поэтому Google приближается к PageRank итеративно, то есть ступенчато: поисковая система применяет результаты предыдущего прохода для вычисления следующего шага итерации. По данным Пейджа и Брина, достаточно 100 итерационных проходов, чтобы получить PageRank миллиардов сохраненных страниц.

Коэффициент затухания: с учетом пользователя .

Согласно теории Google, PageRank выражает вероятность, с которой интернет- пользователь после перехода по случайной ссылке может попасть на нужную страницу. Но поскольку следует исходить из того, что пользователь делает конечное число переходов, в формулу был введен коэффицент затухания. Он симулирует ситуацию, в которой пользователю надоедает ходить по ссылкам. Это затухание вычисляется с учетом голосов на каждую ссылку страницы. В описании своего алгоритма еще на заре становления Google Сергей Брин и Ларри Пейдж использовали коэффици ент затухания 0,85. Можно, следовательно, предположить, что коэффициент при сегодняшних расчетах Google близок к этому значению. В программах, предназначенных для расчета PageRank, можно увидеть значения от 0 до 10. Но это всего лишь индекс, настоящее значение PageRank высчитывается по-другому. Доподлинно неизвестно, какими числами оперирует система, но есть мнение, что значения для страниц имеют число в пределах единицы – то есть от 0 до 1. Получаются маленькие десятичные дроби, отражающие PageRank веб-страниц. Кстати сказать, эксперты пришли еще к одному любопытному наблюдению: чем выше значение PageRank, тем сложнее его улучшить. Google использует логарифмическую шкалу, поэтому преодолеть рубеж PageRank между 2 и 3 гораздо легче, чем между 9 и максимальной отметкой 10. Стоит отметить, что для подавляющего большинства сайтов значения PageRank ограничиваются цифрой 5, далее продвигаются только тысячи сайтов, а значения 10 удостоены единицы».

Интересно, что первое место занимает сам Гугл-его PageRank как раз 10.А вот российских сайтов с такими показателями нет.

«Фильтры: PageRank и его маленькие помощники .

Используя свою формулу PageRank, Google индексировала Сеть с огромным успехом. Но триумф вызвал появление паразитов: владельцы веб-сайтов быстро поняли принцип работы механизма и стали искусственно продвигать свои страницы. Это привело к тому, что Google начала изобретать новые методы для защиты от таких хитрецов, а PageRank со временем превратился лишь в один из факторов, влияющих на положение веб-страниц в результатах поиска Google. Тем не менее PageRank часто используют как своего рода валюту: «Если ты дашь мне две ссылки со страниц с PageRank 4, я дам тебе одну ссылку со страницы с PageRank 5». Все это довольно наивно: простой обмен ссылками ничего не дает(или дает?), тем более если сайты не связаны одной тематикой. Однако PageRank – лишь вершина айсберга. В системе имеются десятки фильтров, а также различные методы оценки сайтов и результатов поиска.

SEO: поисковая оптимизация.

Девиз поисковой оптимизации гласит: «Давай хороший код и хорошее, желательно уникальное, содержание».

Тот, кто запомнит это правило, имеет реальные шансы попасть со своим сайтом на верхние места списков.

Под «хорошим кодом» подразумеваются два свойства HTML-кода веб- страницы. Во-первых, он должен быть качественным в отношении синтаксиса, во-вторых, в нем следует употреблять определенные HTML-элементы. Важными для Google являются прежде всего теги <title>, <p>,<strong>, а также теги заголовков <h1>…<h6>. В <title> содержится краткое описание докумен- та. Этот тег необходимо заполнить правильно, разместив в нем только важную информацию. С помощью <p> форматируются абзацы, <strong> позволяет выделить текст жирным, а внутри тегов <h1>…<h6> следует писать заголовки, причем лучше если они будут повторять ключевые слова, по которым продвигается сайт. Важно использовать заголовок <h1> только один раз, а остальные, например <h2> или <h3>, чаще. Еще одной важной предпосылкой оптимизации результатов поиска является терпение. Владельцы некоторых сайтов с умом размещают ссылки, постепенно повышая PageRank, а вместе с тем и популярность страниц.

Терпение дано не каждому. Но есть еще одно полезное средство – оставлять ссылки на свою страницу в блогах и на форумах. Однако ссылки в комментариях блогов, как правило, автоматически сопровождаются параметром rel=«nofollow». Это означает, что Google не следует по этой ссылке и не считает ее голосом при вычислении PageRank».

Напоминаю, что этот блог как раз наоборот-dofollow.

«Content Spam и Link Spam.

Оба варианта привлекают пользователя на сайт, который занимает в рейтинге Google очень высокое место. Поскольку на таких ресурсах рекламные объявления представляют собой единственный осмысленный элемент содержания, посетитель кликает по ссылке – и это приносит спамерам деньги. Существует несколько разновидностей Content Spam. Самый простой способ – заполнить текст повторяющимися ключевыми словами. Правда, этот метод, называемый Keyword Stuffing, уже не оказывает такого действия, как прежде, когда поисковые системы просто подсчитывали частоту появления тех или иных ключевых слов. С тех пор Google и другие компании приняли против него серьезные меры.

«Противоядие» заключается в соотнесении числа ключевых слов в тексте с его общим объемом (Keyword Density). Начиная с определенного процента текст может быть расценен как спам. Еще одна попытка обмана, с которой Google тоже пришлось столкнуться, – это скрытый текст. Спамеры пишут белый текст на белом фоне – читатель такой страницы ничего не заподозрит, но поисковой системе подсовывают сотни или даже тысячи ключевых слов. Скрытый текст с некоторых пор распознается поисковиками.

Часто встречается Scraping («снятие сливок»), при котором используют содержание чужих сайтов, чтобы обозначить свое присутствие в Интернете. Спамеры применяют этот метод в отношении службы Google Adsense, чтобы заработать деньги с помощью объявлений. Scraping вредит прежде всего сайтам, которые содержат оригинальные тексты. При определенных обстоятельствах Scrape-страница может получить более высокий рейтинг, чем оригинальный сайт. Но и с этой бедой антиспамовая команда Google научилась бороться.

Link spamming: мусор в блогах.

Держателям блогов и форумов приходится иметь дело с еще одни методом «черной» оптимизации – Link Spamming. В появлении такого правила виноваты спамеры, которые используют бот- программы, заполняющие блоги и форумы бессмысленными текстами и многочисленными ссылками.

Link tracking: голосование с помощью кликов .

Поисковый гигант Google не стал бы гигантом, если бы не занимался оценкой поведения пользователей. Анализируя щелчки по ссылкам, можно выявить популярные результаты поиска. Но количество кликов вряд ли внесет изменения в ранжирование сайтов, однако и такую возможность нельзя исключать. При этом следует помнить, что единственный действенный способ получить большое число кликов состоит в том, чтобы дать своему ресурсу хорошее название и описание. Google выбирает в качестве заголовка содержимое тега <title>. А для краткого описания сайта, который Google отображает под ссылкой, следует использовать HTML-метатег, где программист вводит краткое описание документа. Оно может содержать всю важнейшую информацию страницы и привлечь читателя. ( <meta name=”description” content=”Ламер street-блог о компьютерах.Ламер-не диагноз” /> )

Если у страницы нет такой «выжимки», Google выбирает фрагмент текста и использует его в качестве описания.

Black Hat SEO: как обмануть Google .

У каждой системы или программы есть слабые места – даже у Google. С тех пор как поисковые системы стали предлагать пользователям веб-сайты, «черные овцы» пытаются всеми способами повлиять на результаты поиска. Это стало причиной долгой борьбы между спамерами и владельцами поисковых систем. «Черные овцы», так называемые Black Hat SEO, используют упомянутые лазейки в своих целях. Основные методы спамеров -засыпать списками ссылок блоги, форумы и веб-сайты. Преимущество в том, что используемые ими страницы не внушают подозрений. А если Google все же примет какие-то меры против «засоренного сайта», спамерам это не помешает. Единственное средство для борьбы с этим злом – интерпретированный Google атрибут «nofollow» для тегов <anchor>. Ссылки, имеющие такое обозначение, Google игнорирует. В блог- программе WordPress атрибут «nofollow» включен с самого начала. Он не препятствует спаму, но делает его недей- ственным. Спамерам это не очень важно – они по-прежнему забивают мусором комментарии блогеров в надежде встретить онлайн-дневники, которые не применяют «nofollow». Некоторые спамеры создают собственные блоги, с помощью которых пытаются «подсунуть» Google свой контент. В принципе это не что иное, как классический генератор ссылок. С этим Google уже давно успешно борется.

Cloaking: новая любовь спамеров Cloak – по-русски «прикрытие».

Этим словом называется технология спамеров, паразитирующих на поисковых системах. Истинное «лицо» веб- страницы при этом остается скрытым. Спамер преподносит поисковой системе совсем не то содержание, которое видит пользователь. Как только Cloaking-сайт распознает бот Google, он «скармливает» поисковой системе специально подготовленный контент. Это могут быть, к примеру, сотни предложений текста, которые в разных вариантах содержат одно или несколько ключевых слов. Если пользователь посетит такую страницу, он найдет совсем другое содержание, рассчитанное на широкую публику и имеющее мало общего с первоначальным поисковым запросом. По похожему принципу действует Redirect, или «перенаправление». С помощью метатега или Java-скрипта после загрузки одной страницы производится перенаправление на другую. Поскольку Google не интерпретирует JavaScript, бот Google останавливается на первой странице и получает подставной контент, в то время как обычный читатель переадресуется к «настоящей» странице.

Duplicate Content: спам поневоле.

Веб-мастер может руководствоваться самыми добрыми намерениями и, тем не менее, попасть в черный список Google. Одной из причин может быть «двойной контент», который особенно заметен на сайтах большого объема. Duplicate Content возникает по двум причинам. Во-первых, речь может действительно идти о повторе. В частности, если страница, предназначенная для браузера и печати, дважды индексируется Google. На обеих страницах – один и тот же текст. Впрочем, скорее всего, впредь Google больше не будет считать это нарушением.

Еще один путь к двойному контенту ведет через URL. Если одна и та же страница доступна под несколькими доменными именами, это может быть принято за нарушение – как и разные пути файлов, которые имеют одно и то же назначение. Когда статья доступна на www.mysite.xy/article.php?id=1 и www. mysite.xy/cool-header-1/, для Google это два разных адреса, а следовательно, и два разных документа. Но они имеют одинаковое содержание, поэтому в индексе страница будет отброшена вниз. Эту проблему можно решить с помощью обходного маневра – перенаправления. Если пользователь введет www.mycoolsite.xy, он будет перенаправлен на www.mysite.xy. На серверах Apache такое перенаправление осуществляет модуль mod_rewrite. Необходимый код нужно внести в файл .htaccess, который должен находиться в корневом каталоге веб-сайта. Весь механизм переадресации заключен в трех строках кода:

RewriteEngine on

RewriteCond %{HTTP_HOST} !^www\.mysite\. xy$

RewriteRule ^(.*)$ http://www.mysite.xy/$1 [R=permanent]

Первая строка включает механизм перезаписи URL. После этого RewriteCond проверяет название вызванной страницы. Если ее имя не www.mysite.xy, третья строка перенаправляет все запросы на www.mysite.xy. В качестве статуса перенаправления выбрано значение «permanent». Это дает знать Google и другим поисковым системам, что новый адрес действителен постоянно».

Такая вот полезная и интересная информация .

Автор: Chief | Дата: 01.02.2009 | Комментариев: 13
Далее
Политика конфиденциальности Индекс цитирования Яндекс.Метрика Рейтинг@Mail.ru