WEBO Pulsar

5 комментариев

WEBO PulsarСоздатели сервиса для оптимизации скорости загрузки страниц Web Optimizatorи книги «Разгони свой сайт» порадовали новым проектом. На этот раз это сервис мониторинга работы сайтов WEBO Pulsar.

C его помощью можно в полностью автоматическом режиме проверять время ответа сервера и доступность ваших сайтов. У этого сервиса очень много аналогов (см., например, мой обзор сервисов мониторинга сайтов), но есть и преимущество: он расположен в России, а значит сетевые задержки не будут создавать большую погрешность.

Доступность сайтов в WEBO Pulsar можно проверять по протоколам HTTP/HTTPS методами HEAD/GET/POST с частотой от раза в сутки до раза в минуту. Соответственно, чем чаще — тем дороже, хотя цены довольно низкие.

WEBO Pulsar

Сервис облагородили приятным дизайном, хотя по удобству и наглядности я отправил авторам несколько комментариев, к которым они, надеюсь, прислушаются. Сервис находится в стадии активной доработки, планов у разработчиков много:

  • Все необходимые типы и протоколы проверки (на подходе POP, SMTP, IMAP, DNS)
  • Отображение полной диагностики ошибок (traceroute / ping / заголовки ответа)
  • Добавление пользователей для просмотра статистики и уведомлений
  • Картинки доступности (uptime) для каждого сайта
  • Опциональное следование редиректам и проверка SSL-сертификатов
  • Дополнительные точки проверки в России

А если вы не хотите платить и у вас есть хотя-бы одна лишняя VPS (или VDS, или даже обычный хостинг), то проверку своих сайтов вы можете организовать самостоятельно таким простым скриптом:

Скачать PHP-скриптCheckTitle.phps — проверка работы сайтов.

Скрипт нужно запускать раз в нужное вам количество минут с помощью cron (под Linux), nnCron (под Windows) или его какого-нибудь online-аналога для простых хостингов.

Жилинский Владимир.



Рейтинг популярных записей: что там в API?

18 комментариев

simplepieВесть о скором закрытии Рейтинга популярных записей в сервисе Яндекс.Поиск по блогам вызвала у многих интерес к API, который Яндекс обещал сохранить. Уже появилось несколько новых рейтингов на основе данных этого API.

Вот и я хочу поделиться некоторыми наблюдениями в этой области.

Итак, собственно, как воспользоваться данными API рейтинга? Простейший вариант — использовать класс SimplePie. Но у нашего фида есть особенности:

1. Он за каким-то чёртом поделен на страницы, и это не лечится.
2. Часть данных передаётся в расширенном формате, непонятном стандартными RSS-классам.

Первую «особенность» можно обойти, последовательно запрашивая все страницы фида, а для обхода второй для класса придётся писать расширение. Впрочем, это довольно просто — есть инструкция по расширению SimplePie (на английском языке).

Итак, собираем скрипт. Подключаем SimplePie и поочерёдно запрашиваем страниц 20 фида. Пока это просто эксперимент, кеширование можно оставить на файловом уровне класса, но в действующем сервисе уже, конечно, понадобится база данных. На выходе получаем много-много ссылок на записи в блогах. Если присмотреться к ним, то можно сделать некоторые выводы:

— Попасть в этот «топ» довольно просто — две-три ссылки со своих же блогов на других платформах обеспечивают пусть и не высокую, но всё же позицию. Лишь бы блоги были не новые.

— Большое число ссылок на сам блог или сообщество очень помогает. Например, почти все посты сообщества ru_mac попадают в топ за счёт этого.

— Намного больше шансов попасть в рейтинг у блогов на платформе LiveJournal.com. Отдельностоящих блогов там почти нет.

А теперь к досадному моменту: в фиде напрочь отсутствует какая-либо категоризация. Даже банальные теги из ЖЖ в фид не транслируются, что делает весьма затруднительным создание каких-либо тематических рейтингов на основе этого API. Я попробовал набросать некий алгоритм, выдающий записи на околокомпьютерную тематику, но эта идея потерпела фиаско — ни ручной отбор блогов, ни поиск ключевых слов в заголовках не дают нужного эффекта.

Посмотреть, что у меня получилось можно тут.

Поэтому я обращаюсь к читателям с просьбой предложить идею алгоритма, который выявил бы из рейтинга все записи наших коллег — IT-блогеров.

Жилинский Владимир.



Проверка PR: новый алгоритм.

21 комментарий

Проверка Google PRНекоторое время назад перестали работать многие скрипты и функции для определения Google PageRank из-за некоторых изменений в протоколе обмена между соответствующими серверами и Google Toolbar. Чтобы мой сервис проверки тИЦ и PR продолжал работать, функцию пришлось обновлять.


Новую функцию определения PR можно взять тут, а проверить — хоть прямо отсюда.

Введите адрес сайта:



Как и раньше, просьба не перегружать сервис большими или автоматическими запросами, не хочу капчу вешать. Для массовой проверки забирайте скрипт, ставьте задержку около 5 секунд между проверками и пользуйтесь.

Жилинский Владимир.



Поисковые роботы в статистике посещений.

5 комментариев

Определение робота поисковой системыВ заметке «Определение пауков ПС на PHP» я уже выкладывал элементарный скрипт, которым можно отсечь роботов от людей в статистике посещений сайта, и актуальный список ботов Яндекса.

Теперь вниманию читателей (и себе на память, как обычно) предлагаю законченное решение — PHP-скрипт, анализирующий активность кроулеров ПС на сайте. Кстати, кроме аналитики такой скрипт может быть полезен, если какой-нибудь особо активный бот мешает нормальной работе сайта.

Скрипт написан на PHP (возможна работа как в режиме модуля Апача, так и в FastCGI), полностью валиден (в рамках соответствия стандартам xHTML1/Strict и CSS/3), имеет гибкую систему настроек и панель управления. Скрипт также может отображать историю активности ботов конкретной поисковой машины.

Скачать скрипт и получить инструкции по его установке можно на сайте его разработчика — Usings.ru, там же есть и демо-версия статистики, генерируемой скриптом.

Жилинский Владимир.



Curl based HTTP Client vs. Snoopy.

11 комментариев

Началось всё с того, что мне захотелось получать некоторые данные не прямым запросом, а через прокси. Переписывать много кода пришлось бы в любом случае, но на популярные грабли наступать не хотелось.

Задачу «отправить POST- или GET-методом данные и получить результат через прокси» взялись выполнить два PHP-класса.

PHPCurl HTTP Client — простая, но эффективная ООП-оболочка над библиотекой Curl. Содержит все методы, необходимые для получения данных со страниц, подмены referrer, авторизации, отправки POST-запросов, управления cookies и т.д.

Snoopy the PHP net client — PHP-класс, эмулирующий работу веб-браузера. Он автоматизирует получение содержимого страниц или, например, отправку форм. Запросы формирует функцией fsockopen().


Функции этих классов очень похожи. Оба они умеют получать содержимое страниц, отправлять любые значения полей User-agent и Refferer, передавать данные POST- и GET-методами, передавать Cookies, и ещё куча мелких бонусов у каждого класса.

Но работают они кардинально по-разному: одна использует системную библиотеку, а вторая PHP-функцию, поэтому я решил сделать замеры скорости для этих классов на одинаковой задаче.

Задача получилась такая: подключить класс, установить User-agent и Refferer, получить страницу с чужого сайта, вывести прошедшее время, повторить всё 100 раз.

Увы, результаты презентативными не оказались: классы показали одинаковую работу в одинаковое время с крошечным отрывом Snoopy в пределах погрешности. Так что можно пользоваться любым из них.

Жилинский Владимир.



Таблицы: красиво и удобно.

15 комментариев

Что-то давно я не писал ничего, исправляюсь. Эта запись будет скорее в стиле «чтобы самому не забыть». Когда-то давно один читатель меня просил сделать произвольную сортировку в таблице, которая рисуется средствами PHP. Бегло просмотрев функции работы с массивами, я понял, что определённо должен быть способ проще. Так и вышло ©.

Вместо того чтобы наворачивать запросы и обработки на PHP можно использовать небольшой JS-скрипт, который перехватит таблицу уже в браузере посетителя и его же силами отсортирует её как угодно.

Поиск такого скрипта (а зачем писать если можно найти?) показал, что их десятки, и многие по навороченности напоминают центр управления космическими полётами, например – соответствующие плагины Tablesorter для JQuery, Phatfusion sortable и Mootable sorting для mootools, Datatables для YUI и TableKit для Prototype.

Думаю, их довольно просто прикрутить и приручить, если один из этих тулкитов в вашем проекте используется. В моём случае так не вышло, а грузить лишний код не хотелось.

Я выбрал два маленьких скрипта, не требующих ничего ни от сайта (нужно подключить один JS-файл), ни от вёрстки (нужно просто задать CSS-класс для заголовков таблицы).

Unobtrusive Table Sort Standartista
Unobtrusive Table Sort Standartista


1. Unobtrusive table sort — это мой выбор, я использовал его в выводе результатов работы скрипта для проверки тИЦ и PR.

Этот скрипт умеет сортировать цифры, строки, правильно сортировать даты, размеры файлов и прочее, подсвечивать чётные строки таблиц цветом, а так же делить содержимое больших таблиц на страницы.

Очень легко подключается, и может работать даже без дополнительной CSS-обёртки. Хотя, стоит отметить, с ней он выглядит довольно симпатично.

2. Standartista — очень похожий скрипт, но со своими особенностями. Он умеет сортировать IP-адреса, валюты, числа, текст и даты, а главная его фишка в том, что он сам умеет эти типы данных угадывать, не требуя пояснений.

Жилинский Владимир.



Полезные скрипты.

12 комментариев

Выложил для всеобщего использования несколько скриптов, которые иногда использую сам — может ещё кому-нибудь пригодятся.

Самый интересный скрипт, с отладкой которого я дольше всего возился, это анализатор статистики RSS-ленты в FeedBurner. Принцип работы подсмотрен у BlogPerfume Feed Analysis v1.1, но исходниками автор поделиться отказался, пришлось написать самому. Скрипт показывает увеличение числа читателей за каждый месяц, каждый день месяца и каждый день недели в виде динамических графиков.

График читателей по дням недели

Как показали наблюдения, большинство блогеров используют FeedBurner и необходимый скрипту Awareness API у большинства открыт, так что подсмотреть можно и чужую статистику, зная адрес RSS-фида.

Ну и добавил несколько мелких скриптов:

  • Определение Google PageRank
  • Определение Яндекс тИЦ
  • Массовая проверка PR и тИЦ
  • Кнопки с показателями
  • WHOIS-сервис

Для проверки пузомерок (тИЦ и PR) можно скачать готовые функции (PHP), используемые в этом сервисе.

Специально для себя добавил функцию сохранения значений тИЦ и PR, и отображения их истории при изменениях.

В общем, если кому-то нужно или интересно – пользуйтесь, докладывайте обо всех глюках, присылайте ещё интересные скрипты и идеи  :-)

Жилинский Владимир.



Zebrum CMS: новая Ajax-версия.

10 комментариев

Zebrum CMSВчера вышла новая версия Zebrum CMS 1.10, над которой так долго трудились разработчики.

Интерфейс Zebrum CMS полностью перевели на Ajax и теперь по принципу взаимодействия с пользователем он напоминает Gmail и работает намного быстрее.

Все, кто приобрёл Zebrum CMS ранее (в том числе и я), получили это обновление бесплатно и автоматически — пришлось нажать всего одну кнопку «Обновить».

Из интересных и полезных, на мой взгляд, новых функций хочу отметить парсер шаблонов. Если ему указать, скажем, страницу-пример шаблона для WordPress, то он выкачает весь шаблон вместе с вспомогательными файлами. Останется только добавить несколько тегов, и шаблон для Zebrum CMS готов.

Как это работает, можно увидеть в обучающем видео-ролике, а более подробный обзор возможностей Zebrum CMS можно найти здесь.

Стоимость Zebrum CMS по-прежнему составляет 7700 рублей, а инвайт на приобретение можно получить у меня, связавшись со мной любым удобным способом.

Жилинский Владимир.



Шабаш всех влюблённых в Unix.

8 комментариев

Двоичные часы

UNIX-время или POSIX-время (Unix time) — способ кодирования времени, принятый в UNIX и некоторых других POSIX-совместимых операционных системах.

$ date [email protected]
Fri Feb 13 23:31:30 UTC 2009

Фактически, unix time (или time_t по типу переменной) — это число секунд, прошедших с точки начала отсчёта, которой считается полночь (по UTC) с 31 декабря 1969 года на 1 января 1970 года, а время с этого момента называют «эрой UNIX» (Unix Epoch).

Фанаты, гики и энтузиасты ещё во времена Fidonet завели традицию — отмечать особо ровные даты в unix-time, и такие даты стали называть «time_t parties».

Вот самые круглые time_t-даты:

  • 9 сентября 2001 года в 01:46:40 UTC, биллениум Unix (1000000000)
  • 18 марта 2005 года в 01:58:31 UTC (1111111111)
  • 13 февраля 2009 года в 23:31:30 UTC (1234567890)
  • 13 июля 2012 года в 11:01:20 UTC (1342177280 = 0x50000000)
  • 18 мая 2033 года в 03:33:20 UTC , второй биллениум (2000000000).

Как видите, в ночь с 13 на 14 февраля этого года ожидается юбилей. Технически с учётом поправки на часовой пояс у нас это произойдёт уже 14-го в 31 минуту и 30 секунд первого. Забавно, что 13-е число приходится на пятницу, а 14-е — день всех влюблённых.

19 января 2038 года в 03:14:08 по UTC значение переменной типа time_t достигнет 231, что может привести к ошибочной интерпретации этого числа как отрицательного. Возможное решение «проблемы 2K38» —  использование не 32-х, а 64-битной переменной.

Жилинский Владимир.



Скрипт комментариев от LiveInternet.

7 комментариев

Комментарии LiveinternetСегодня разработчики блогхостинга LiveInternet и смежных проектов объявили о запуске собственного внешнего движка для комментирования страниц.

Выглядит это так: вы регистрируетесь на сайте проекта, добавляете в панель адрес своего сайта и получаете код, который необходимо добавить на страницы вашего сайта. Код выполнен в виде подключения внешнего JavaScript, который в свою очередь генерирует iframe с комментариями и формой комментирования или авторизации. Пользователи LiveInternet авторизуются автоматически, пользователи LiveJournal могут авторизоваться под своим ЖЖ-аккаунтом, остальные – по OpenID.

Управлять комментариями и модерировать их владелец сайта может в панели управления. Небольшой доработкой кода можно полностью изменить стили отображения комментариев, а с помощью дополнительных скриптов можно вывести на страницу число и список последних комментариев.

Хорошо:

  • можно очень быстро добавить возможность комментировать любую страницу любого сайта,
  • используется толковый AJAX и threaded-схема,
  • нет рекламы,
  • используется OpenID.

Плохо:

  • сервис пока не до конца отлажен, бывают сюрпризы,
  • OpenID пока работает не со всеми OpenID-провайдерами,
  • Iframe+JS – комментарии не будут индексироваться поисковыми системами,
  • вопрос со спамом пока, кажется, открыт.

Жилинский Владимир.




© 2007-2010 Блог интернет-разработчика, автор — Zhilinsky.ru.
При использовании информации ссылка на источник обязательна.