Свежие комментарии

Title Comment
Алексей, спасибо за исследование и статью! Первый вопрос к т

Алексей, спасибо за исследование и статью!
Первый вопрос к терминологии: в заголовке статьи Вы употребляете термин "ссылочное ранжирование", а он означает, если я не ошибаюсь, влияние текста ссылки на страницу, куда эта ссылка ведет. Я бы использовал что-нибудь вроде "ссылочной массы" или "ссылочной базы" Рунета.
А второй вопрос даже и не вопрос: было бы интересно узнать больше о тех сайтах, _на_ которые стоит основная масса ссылок. Если отсечь сайты со слишком большим количеством входящих ссылок (порталы, поисковики, крупные издания) и со слишком малым (некоммерческие проекты, домашние проекты и т.д.), то можно было бы выделить отличительные признаки "коммерческих" сайтов. Хотя это так, фантазии! :)
Еще раз спасибо.
Владимир Чернышов.

На ноябрьской SEO-конференции должен был быть доклад Максима

На ноябрьской SEO-конференции должен был быть доклад Максима Бабича на эту тему, но Максим сломал руку и доклада не сделал. Кроме того, текста доклада он заранее тоже не предоставил. Так это и осталось тайной.

Можно зайти с другой стороны: считая что примерно треть денег, направляемых в SEO, идет на ссылки, а рынок SEO - 70-100 млн. в год (это было на конференции), то мои цифры (самая маленькая из них - 32 млн. в год) получаются похожими на правдую

А существуют ли ещё какие-то, помимо Вашей, оценки рынка пок

А существуют ли ещё какие-то, помимо Вашей, оценки рынка покупных ссылок в Рунете?

а кто знает когда будет следующая переиндексация с тицом?

а кто знает когда будет следующая переиндексация с тицом?

В три раза - это изрядное преувеличение. Сравнивая логи дост

В три раза - это изрядное преувеличение. Сравнивая логи достаточно крупного сайта (30-50 тыс. посетителей) с тем что считает Топ100, я бы сказал что теряется 20-30%.

Просто Топ100 в качестве основной цифры показывает посещаемость главной страницы, чтобы найти для сайта в-целом нужно порассматривать цифры. Как автор вам говорю.

Чтобы не быть голословным, давайте посмотрим на Ленту.РУ:
http://www.liveinternet.ru/stat/lenta.ru/ - ~1.4 млн просмотров страниц в рабочий день, пик до 1.7 26-го февраля.
http://top100.rambler.ru/cgi-bin/stats_top100.cgi?id=80674&page=2&site=1... - 1.1 просмотров в рабочий день, пик до 1.2 26-го февраля.

20-30% разницы.

ну тот факт, что топ100 считает в три раза меньше всех остал

ну тот факт, что топ100 считает в три раза меньше всех остальных, в т.ч. и ливинтернета, так это уже сто лет как.

Ну то есть, это давно известные проблемы топ100 :)

Послушайте, но это же статистика. Те кто в каталоге - потеря

Послушайте, но это же статистика. Те кто в каталоге - потеряли в-среднем меньше. Но среди них есть и те, кто почти 100% потерял

Не могу согласиться с тем, что нахождение сайта в ЯК может о

Не могу согласиться с тем, что нахождение сайта в ЯК может обезопасить от резкого падения Тиц, мой сайт потерял потерял ~55%.
Согласен с тем , что произошла переоценка ссылочного.

фотки обрабатывать. И в тетрис играть

фотки обрабатывать. И в тетрис играть

Костя, эти 6.6 просмотров на посетителя - это не просмотров

Костя, эти 6.6 просмотров на посетителя - это не
просмотров одного сайта (интересно какого?),
а просмотров вообще интернета.

Фу ты... А для чего тебе 8 гигов оперативки?

Фу ты... А для чего тебе 8 гигов оперативки?

Мне кажется некорректно сравниваться эти цифры. Там же в Лай

Мне кажется некорректно сравниваться эти цифры. Там же в Лайвинтернете есть статистика просмотров страниц среднесуточная "Просмотров на посетителя 6.6". А сколько раз каждый из 4,5 млн. человек делал в день поисковых запросов или на сколько сайтов перешел из результов поиска (может быть и не на один сайт) - мы не знаем.

Спасибо, узнал новое для себя. Кстати, здесь, как я заметил

Спасибо, узнал новое для себя.

Кстати, здесь, как я заметил, установлен плагин MT-Notifier. У меня он тоже установлен. Но свою главную функцию — рассылку уведомлений — выполнять отказывается. Хотя какое-то время после установки работал нормально. Причём в блогах, которые были созданы позднее, он работает до сих пор.

Ну, чтобы по ссылкам ходить - нужно выкачивать весь рунет, а

Ну, чтобы по ссылкам ходить - нужно выкачивать весь рунет, а не только головы. Обнаружить полную связность только по главным страницам было бы странно.

<a href="http://www.43n39e.ru/ruhole" rel="nofollow">Рухоль<

Рухоль насчитывает чуть более 241 тыс. сайтов и с ноября выросла примерно на тысячу-две, не более. Разница в том, что сайты в основном находятся по ссылкам с других сайтов.

Получается либо Рунет очень сильно несвязан, либо захвачено раза в 3 больше доменов, чем могут создать на них сайтов, интересных хотябы одному ссылающемуся...

Это все single precision (32 бита). Данные подбирались так,

Это все single precision (32 бита). Данные подбирались так, чтобы не попасть в переполнение или потерю точности (значения от 0.1 до 1).

Матрицы - не разреженные.

Размерность задач указана, а вот нельзя ли по-подробнее про

Размерность задач указана, а вот нельзя ли по-подробнее про тип данных? Т.е. разброс значений и структуры матриц - для которых проводились эти тесты?

По договоренности с источником данных, я не могу ничего тако

По договоренности с источником данных, я не могу ничего такого делать. Договоренности 9 лет.
Оно довольно глупо, т.к. любой партнер Руцентра может получать от них список доменов, а партнером может стать любое юрлицо. Но передоговариваться смысла нет - никакие сервисы оперирующие именно списком доменов делать неинтересно (в силу общедоступности этого списка).

Доменов, оканчивающихся на blog - 362 штуки. Содержащих в себе 4 буквы (blog) - 643. Начинающихся с blog- - 8 штук.

Алексей, а существует ли какой-нибудь инструмент, с помощью

Алексей, а существует ли какой-нибудь инструмент, с помощью которого, используя данные ЧК, можно было получать список доменов, содержащих заданное ключевое слово? :)
Например, ввожу слово "blog" и получаю список зарегистрированных доменов, содержащих данное слово.

Ну я не могу рассаспендить журнал в ЖЖ.

Ну я не могу рассаспендить журнал в ЖЖ.

ссылка не работает

ссылка не работает

Ну вот я бы не отказался от сайд-эффекта (документированного

Ну вот я бы не отказался от сайд-эффекта (документированного) - ваши байты на мультипроцессоре остались в том же порядке.

С другой стороны, действительно неизвестно, какой thread block жил на этой shared memory, но можно выйти из положения или явно (писать blockid туда же) или неявно - задавая ту же конфигурацию блоков-тредов и предполагая (лучше тоже документированно), что их распределение такое же.

Остается еще вопрос "что делать, когда блоков/тредов очень очень много", ну да это мы обсуждаем в личной переписке.

Время жизни shared переменных - до завершения CTA. Даже если

Время жизни shared переменных - до завершения CTA. Даже если бы GRF сохранял своё значение, появилось бы множество технических и логических трудностей: например, как связать переменные из первого и второго ядра? Скорее всего, пришлось бы требовать, чтобы __shared__ переменные были объявлены абсолютно одинаково и в таком же порядке. Что делать, в тех случаях, когда это не так? Даже если общий размер, типы, и порядок объявления совпадает, присутствует неопределённость: CTA из второго ядра не смогут автоматически узнать (только вручную), от какого CTA ему достался фрейм GRF.

Иконки, наверное, там в тифах по сто метров

Иконки, наверное, там в тифах по сто метров

У меня мотиваций было две 1) Таки драйвер принтера иметь на

У меня мотиваций было две
1) Таки драйвер принтера иметь напрямую, а не через vmware
2) Попробовать попрограммировать шейдеры для DX10.

без winfs она нафиг не нужна - одни bells'n'whistles надоеда

без winfs она нафиг не нужна - одни bells'n'whistles
надоедающие на следующий день. а cleartype просто бесит - у кого-то там видимо ностальгия по crt мониторам.

Вместо параметра, что сайт в utf, можно подставлять произвол

Вместо параметра, что сайт в utf, можно подставлять произвольную букву русского языка, как этот делает Максим Зотов в коде своего счётчика.

В зависимости от того, в каком виде придёт эта буква, определяется кодировка страницы.

Простой и рабочий способ.

Только надо выбрать букву, которая в разных кодировках имеет разный код.

Hypersearch - другой проект и у него корни из другого места

Hypersearch - другой проект и у него корни из другого места растут.

Но думаю завтра уже все будет. utf8=1 оставьте, в некоторый момент заработает (я думаю)

Да, utf8=1 ставить пробовал (подсмотрел в хелпе по hypersear

Да, utf8=1 ставить пробовал (подсмотрел в хелпе по hypersearch), результат не изменился.

Так что будем ждать, спасибо :)

p.s. Даже странно, что из всех >500 персональных поисков Новотеки, ни один сайт не работает на UTF-8 (судя по отсутсвию "следов" проблемы в интернете).

Ага, я уже в курсе :) Постараемся за пару дней решить пробл

Ага, я уже в курсе :)

Постараемся за пару дней решить проблему. Ровно тем же способом, как описано в статье:
==
Для нашего поискового скрипта завел отдельный ключик: сайт в UTF-8, который нужно ставить вручную на страницах с такой кодировкой. На КОИ8 наплевал.
==

Но этот ключик надо поддержать с нашей стороны, естественно

Pages

Subscribe to comments_recent_new