Trojan.Winlock: Может и правда хватит?

80 комментариев

По данным российских антивирусных компаний, уже несколько миллионов россиян пострадало от вредоносных программ семейства Trojan.Winlock и аналогичных. Для заражения компьютеров на данный момент используются практически все известные способы и уязвимости браузеров, операционных систем, а так же методы социальной инженерии.

Эти вирусы объединяет одна общая черта — требование от пользователя отправить SMS на короткий номер. Стоимость такой отправки является максимальной для оператора пользователя (примерно от 300 до 1000 рублей), и отправить для разблокировки как правило необходимо несколько таких SMS. Из-за постоянной модификации исходного вируса антивирусные программы против этой эпидемии практически бессильны. Часто в качестве стимула вирусы выводят незакрываемое штатными средствами окно с порнографическими картинками на рабочий стол, а так же отключают диспетчер задач и блокируют выход в интернет.

А кормятся на этом:

  • авторы модификаций вируса;
  • владельцы сайтов, используемых для распространения вируса (партнёрские программы);
  • сервис-провайдеры коротких номеров;
  • операторы сотовой связи (40 – 50% дохода, между прочим);
  • возможно, что и некоторые антивирусные компании, впрочем не факт, что с ними делятся.

Парадокс: в соответствии с законами РФ и техническими характеристиками используемой цепочки нет никакой трудности в выявлении организаторов и исполнителей этого мошенничества. Но результат, как мы видим, отрицательный, при чём в геометрической прогрессии.

Мошенники продолжают зарабатывать огромные (откройте калькулятор, посчитайте) деньги, нарушая чуть ли не весь уголовный кодекс — это и вымогательство, и распространение порнографии, и взлом компьютерной системы.

Немного сарказма. Чем же занимается наше доблестное? Не знаю как у вас, а в нашем маленьком Пскове предприимчивый отдел «К» занимается продажей пиратских дисков через торговую сеть «Навигатор». Борются с конкуренцией, им не до этого.

Обычно, когда заходит речь об этих вирусах, сразу появляются комментарии в стиле «используйте линукс, сами виноваты, не ходите по ссылкам», и так далее. Левые отмазки слабаков, прикрывающих собственное бездействие.

Чем занимаются антивирусные компании? Не успевают за вирусмейкерами. Dr.Web даже официально это признал и воззвал к доблестным, но пока тоже без особых результатов. Но у них и у Лаборатории Касперского есть сервисы, позволяющие подобрать код для разблокировки компьютера от вируса в большинстве случаев:

http://www.drweb.com/unlocker/index
http://support.kaspersky.ru/viruses/deblocker

Именно эти адреса вирус, разумеется, блокирует в первую очередь.

ЖЖ-блогер, ведущий блог «Реверсивные коммуникации», первым поднял достаточно много шума на эту тему. В его блоге есть исчерпывающие инструкции по борьбе с мошенниками, требующие правда небольшой поправки на разницу между законами Украины и России. Этот человек на самом деле молодец, он не опустил руки как все остальные, желание сделать жизнь в своей стране хоть немного лучше — достойно уважения.

Мне «посчастливилось» поучаствовать в этой заварухе, вирус умудрился поймать мой родственник. Я взял дело под свой контроль и могу сказать следующее:

  • SMS отправлять не нужно. Не факт что это вообще поможет.
  • Если SMS отправлено — ищите сервис-провайдера. Вбейте в Яндекс короткий номер и префикс и всё поймёте.
  • Писать туда бесполезно — звоните сразу на горячую линию и требуйте юридически компетентного специалиста.

Виновных, скорее всего, не накажут, но хоть деньги вернут. Не думаю, что компания пойдёт на риск больших штрафов ради 500 рублей.


Это был рецепт для пользователей. А теперь мысли для тех, кто уже съел пару собак на просторах интернета.

А что если продолжить этот флешмоб? Думаю, блогеры — уже достаточная сила для прецедента. Давайте соберём доказательства, бинарники вирусов, сайты с эксплойтами, левых сервис-провайдеров. Выполним работу К-отдела, раз они заняты. Кто готов поиграть в эту весёлую игру? :)

Жилинский Владимир



Воруют контент? Парсят блог?

34 комментария

С проблемой воровства контента сталкивались, наверное, очень многие. Не то чтобы эта проблема была обалдеть какой страшной и опасной, но всё равно — приятного же мало.

Авторские права (в том числе и блогерские, в том числе и в интернете) определяет закон «Об авторском праве и смежных правах».  Не вдаваясь в юридические подробности, из этого закона можно сделать вывод, что опубликовав самостоятельно написанную статью в сети, вы становитесь обладателем авторских прав на неё без каких-либо оговорок и формальностей (презумпция авторства).

Едем дальше. Как найти плагиаторов? Если воровство материала создаёт вам проблемы, то ответ на этот вопрос вам известен. А если нет, то можете попробовать поискать в поисковых системах заголовки или предложения из своих текстов (можно в кавычках для точного поиска). Или воспользуйтесь специальным сервисом поиска плагиата — CopyScape. Особо «талантливые» парсеры иногда даже присылают трекбэки, по которым их сразу видно.

  • Не нашли? Отлично.
  • Нашли? Разберёмся.

Первое, что стоит сделать — связаться с владельцем ресурса, на котором размещается краденный контент. Найдите контактную информацию на сайте. Если её нет — проверьте whois этого домена, там может быть телефон и e-mail. Если контакт найден — пишем ему письмо. Вежливость, количество угроз и нецензурной лексики на ваше усмотрение. В 90% случаев вашу просьбу выполнят, зачем им дальнейшие проблемы?

Если контактов нет, вам не отвечают в течение пары дней или вас послали — пора переходить к активным боевым действиям. Вернитесь к whois-данным домена и посмотрите его DNS. Если сайт расположен на виртуальном хостинге, то в качестве NS будут указаны сервера хостинг-провайдера. А чтобы два раза не ходить, посмотрите и код регистратора домена (их расшифровка легко гуглится).

Возможен вариант, что плагиатор использует именные NS, тогда выяснять его сервис-провайдера придётся по IP-адресу. Если кто-то знает для этого сервисы, напишите в комментариях. По-моему что-то подобное умеет показывать сервис Who.is.

Если хостинг-провайдер или регистратор домена мошенника известны — пишите им подробные вежливые письма, указывайте ссылки на оригинал, на плагиат, делайте упор на законодательство. У многих крупных организаций этим занимается отдельная юридическая служба — пишите сразу туда. Хостинг-провайдеры (что с лицензией, что без неё) проблем с законом боятся как огня и решают вопрос как правило в течение нескольких минут.

Если эти два способа не помогли (чего в моей практике вообще не встречалось) — остаётся последний способ, связанный с большим числом заморочек и трудностей — обратиться в правоохранительные органы с заявлением. Если кто-то доходил до этого, то тоже ждём историй.

Жилинский Владимир.



Рейтинг популярных записей: что там в API?

18 комментариев

simplepieВесть о скором закрытии Рейтинга популярных записей в сервисе Яндекс.Поиск по блогам вызвала у многих интерес к API, который Яндекс обещал сохранить. Уже появилось несколько новых рейтингов на основе данных этого API.

Вот и я хочу поделиться некоторыми наблюдениями в этой области.

Итак, собственно, как воспользоваться данными API рейтинга? Простейший вариант — использовать класс SimplePie. Но у нашего фида есть особенности:

1. Он за каким-то чёртом поделен на страницы, и это не лечится.
2. Часть данных передаётся в расширенном формате, непонятном стандартными RSS-классам.

Первую «особенность» можно обойти, последовательно запрашивая все страницы фида, а для обхода второй для класса придётся писать расширение. Впрочем, это довольно просто — есть инструкция по расширению SimplePie (на английском языке).

Итак, собираем скрипт. Подключаем SimplePie и поочерёдно запрашиваем страниц 20 фида. Пока это просто эксперимент, кеширование можно оставить на файловом уровне класса, но в действующем сервисе уже, конечно, понадобится база данных. На выходе получаем много-много ссылок на записи в блогах. Если присмотреться к ним, то можно сделать некоторые выводы:

— Попасть в этот «топ» довольно просто — две-три ссылки со своих же блогов на других платформах обеспечивают пусть и не высокую, но всё же позицию. Лишь бы блоги были не новые.

— Большое число ссылок на сам блог или сообщество очень помогает. Например, почти все посты сообщества ru_mac попадают в топ за счёт этого.

— Намного больше шансов попасть в рейтинг у блогов на платформе LiveJournal.com. Отдельностоящих блогов там почти нет.

А теперь к досадному моменту: в фиде напрочь отсутствует какая-либо категоризация. Даже банальные теги из ЖЖ в фид не транслируются, что делает весьма затруднительным создание каких-либо тематических рейтингов на основе этого API. Я попробовал набросать некий алгоритм, выдающий записи на околокомпьютерную тематику, но эта идея потерпела фиаско — ни ручной отбор блогов, ни поиск ключевых слов в заголовках не дают нужного эффекта.

Посмотреть, что у меня получилось можно тут.

Поэтому я обращаюсь к читателям с просьбой предложить идею алгоритма, который выявил бы из рейтинга все записи наших коллег — IT-блогеров.

Жилинский Владимир.



Проверка PR: новый алгоритм.

21 комментарий

Проверка Google PRНекоторое время назад перестали работать многие скрипты и функции для определения Google PageRank из-за некоторых изменений в протоколе обмена между соответствующими серверами и Google Toolbar. Чтобы мой сервис проверки тИЦ и PR продолжал работать, функцию пришлось обновлять.


Новую функцию определения PR можно взять тут, а проверить — хоть прямо отсюда.

Введите адрес сайта:



Как и раньше, просьба не перегружать сервис большими или автоматическими запросами, не хочу капчу вешать. Для массовой проверки забирайте скрипт, ставьте задержку около 5 секунд между проверками и пользуйтесь.

Жилинский Владимир.



Поисковые роботы в статистике посещений.

5 комментариев

Определение робота поисковой системыВ заметке «Определение пауков ПС на PHP» я уже выкладывал элементарный скрипт, которым можно отсечь роботов от людей в статистике посещений сайта, и актуальный список ботов Яндекса.

Теперь вниманию читателей (и себе на память, как обычно) предлагаю законченное решение — PHP-скрипт, анализирующий активность кроулеров ПС на сайте. Кстати, кроме аналитики такой скрипт может быть полезен, если какой-нибудь особо активный бот мешает нормальной работе сайта.

Скрипт написан на PHP (возможна работа как в режиме модуля Апача, так и в FastCGI), полностью валиден (в рамках соответствия стандартам xHTML1/Strict и CSS/3), имеет гибкую систему настроек и панель управления. Скрипт также может отображать историю активности ботов конкретной поисковой машины.

Скачать скрипт и получить инструкции по его установке можно на сайте его разработчика — Usings.ru, там же есть и демо-версия статистики, генерируемой скриптом.

Жилинский Владимир.



Curl based HTTP Client vs. Snoopy.

11 комментариев

Началось всё с того, что мне захотелось получать некоторые данные не прямым запросом, а через прокси. Переписывать много кода пришлось бы в любом случае, но на популярные грабли наступать не хотелось.

Задачу «отправить POST- или GET-методом данные и получить результат через прокси» взялись выполнить два PHP-класса.

PHPCurl HTTP Client — простая, но эффективная ООП-оболочка над библиотекой Curl. Содержит все методы, необходимые для получения данных со страниц, подмены referrer, авторизации, отправки POST-запросов, управления cookies и т.д.

Snoopy the PHP net client — PHP-класс, эмулирующий работу веб-браузера. Он автоматизирует получение содержимого страниц или, например, отправку форм. Запросы формирует функцией fsockopen().


Функции этих классов очень похожи. Оба они умеют получать содержимое страниц, отправлять любые значения полей User-agent и Refferer, передавать данные POST- и GET-методами, передавать Cookies, и ещё куча мелких бонусов у каждого класса.

Но работают они кардинально по-разному: одна использует системную библиотеку, а вторая PHP-функцию, поэтому я решил сделать замеры скорости для этих классов на одинаковой задаче.

Задача получилась такая: подключить класс, установить User-agent и Refferer, получить страницу с чужого сайта, вывести прошедшее время, повторить всё 100 раз.

Увы, результаты презентативными не оказались: классы показали одинаковую работу в одинаковое время с крошечным отрывом Snoopy в пределах погрешности. Так что можно пользоваться любым из них.

Жилинский Владимир.



Таблицы: красиво и удобно.

15 комментариев

Что-то давно я не писал ничего, исправляюсь. Эта запись будет скорее в стиле «чтобы самому не забыть». Когда-то давно один читатель меня просил сделать произвольную сортировку в таблице, которая рисуется средствами PHP. Бегло просмотрев функции работы с массивами, я понял, что определённо должен быть способ проще. Так и вышло ©.

Вместо того чтобы наворачивать запросы и обработки на PHP можно использовать небольшой JS-скрипт, который перехватит таблицу уже в браузере посетителя и его же силами отсортирует её как угодно.

Поиск такого скрипта (а зачем писать если можно найти?) показал, что их десятки, и многие по навороченности напоминают центр управления космическими полётами, например – соответствующие плагины Tablesorter для JQuery, Phatfusion sortable и Mootable sorting для mootools, Datatables для YUI и TableKit для Prototype.

Думаю, их довольно просто прикрутить и приручить, если один из этих тулкитов в вашем проекте используется. В моём случае так не вышло, а грузить лишний код не хотелось.

Я выбрал два маленьких скрипта, не требующих ничего ни от сайта (нужно подключить один JS-файл), ни от вёрстки (нужно просто задать CSS-класс для заголовков таблицы).

Unobtrusive Table Sort Standartista
Unobtrusive Table Sort Standartista


1. Unobtrusive table sort — это мой выбор, я использовал его в выводе результатов работы скрипта для проверки тИЦ и PR.

Этот скрипт умеет сортировать цифры, строки, правильно сортировать даты, размеры файлов и прочее, подсвечивать чётные строки таблиц цветом, а так же делить содержимое больших таблиц на страницы.

Очень легко подключается, и может работать даже без дополнительной CSS-обёртки. Хотя, стоит отметить, с ней он выглядит довольно симпатично.

2. Standartista — очень похожий скрипт, но со своими особенностями. Он умеет сортировать IP-адреса, валюты, числа, текст и даты, а главная его фишка в том, что он сам умеет эти типы данных угадывать, не требуя пояснений.

Жилинский Владимир.



«Корпоративный веб-сайт на 100%»: стандарты.

11 комментариев

Корпоративный веб-сайт на 100%Почётное место на моей книжной полке заняла ещё одна книга на тему веб-разработки: «Корпоративный веб-сайт на 100%: требуйте от сайта большего».

Её авторы — Роман Овчинников и Сергей Сухов, сотрудники компании Individ.

В аннотации они характеризуют свой труд так:
«Системное, компактное и хорошо структурированное руководство по всем аспектам работы корпоративных сайтов. Книга обобщает богатый практический опыт ее авторов. На страницах книги вы найдете множество рекомендаций, примеров, методик и контрольных списков, которые позволят сделать ваш веб-сайт мощным бизнес-инструментом.»
Книга разделена на 100 частей по 3-5 страниц, и каждая часть раскрывает какой-либо аспект, характеризующий корпоративный сайт — это и есть её структурированность. Что касается системности, то да — придумать ещё хоть один аспект оценки корпоративного сайта я не смог.

Книга необычная. Возможно, из-за того, что она предназначена не для разработчиков, а для заказчиков. Это не та книжка, которую можно читать перед сном — её надо быстро-быстро листать туда-сюда в процессе написания ТЗ, периодически обращаясь ещё и к поисковикам за разъяснениями. Разработчикам, кстати, книга тоже может оказаться весьма полезной в достижении идеала.

Но, конечно, не стоит воспринимать каждый пункт буквально.

Например, параграф 98, «Поисковая оптимизация» — тема очень динамичная, а утверждения порой спорные. Первым же пунктом авторы советуют прописать для каждой страницы мета-теги «keywords» и «description». Я с искренней верой в бессмысленное и беспощадное трудолюбие людей отправился в портфолио команды Individ в поисках сайта с прописанными метатегами. Первые три сайта оказались без метатегов, следующие два — с ними, но пустыми. В метатегах пятого сайта битрикс хвастался, что он тоже CMS. На этом я поспешил удалиться, пока не нашёл чего-нибудь ещё более страшного, ибо вообще не верю в то, что на этом ужасе можно сделать сайт хотя бы на 15%.

Задумка авторов понятна: книга не является справочником или пособием, она является толковым сборником стандартов разработки корпоративных сайтов, кропотливо собранных авторами на основе своего опыта и накопленных материалов.

Место такой книги на столе директора по маркетингу или в компании, занимающейся созданием сайтов премиум-класса.

Жилинский Владимир.



Полезные скрипты.

12 комментариев

Выложил для всеобщего использования несколько скриптов, которые иногда использую сам — может ещё кому-нибудь пригодятся.

Самый интересный скрипт, с отладкой которого я дольше всего возился, это анализатор статистики RSS-ленты в FeedBurner. Принцип работы подсмотрен у BlogPerfume Feed Analysis v1.1, но исходниками автор поделиться отказался, пришлось написать самому. Скрипт показывает увеличение числа читателей за каждый месяц, каждый день месяца и каждый день недели в виде динамических графиков.

График читателей по дням недели

Как показали наблюдения, большинство блогеров используют FeedBurner и необходимый скрипту Awareness API у большинства открыт, так что подсмотреть можно и чужую статистику, зная адрес RSS-фида.

Ну и добавил несколько мелких скриптов:

  • Определение Google PageRank
  • Определение Яндекс тИЦ
  • Массовая проверка PR и тИЦ
  • Кнопки с показателями
  • WHOIS-сервис

Для проверки пузомерок (тИЦ и PR) можно скачать готовые функции (PHP), используемые в этом сервисе.

Специально для себя добавил функцию сохранения значений тИЦ и PR, и отображения их истории при изменениях.

В общем, если кому-то нужно или интересно – пользуйтесь, докладывайте обо всех глюках, присылайте ещё интересные скрипты и идеи  :-)

Жилинский Владимир.



Zebrum CMS: новая Ajax-версия.

10 комментариев

Zebrum CMSВчера вышла новая версия Zebrum CMS 1.10, над которой так долго трудились разработчики.

Интерфейс Zebrum CMS полностью перевели на Ajax и теперь по принципу взаимодействия с пользователем он напоминает Gmail и работает намного быстрее.

Все, кто приобрёл Zebrum CMS ранее (в том числе и я), получили это обновление бесплатно и автоматически — пришлось нажать всего одну кнопку «Обновить».

Из интересных и полезных, на мой взгляд, новых функций хочу отметить парсер шаблонов. Если ему указать, скажем, страницу-пример шаблона для WordPress, то он выкачает весь шаблон вместе с вспомогательными файлами. Останется только добавить несколько тегов, и шаблон для Zebrum CMS готов.

Как это работает, можно увидеть в обучающем видео-ролике, а более подробный обзор возможностей Zebrum CMS можно найти здесь.

Стоимость Zebrum CMS по-прежнему составляет 7700 рублей, а инвайт на приобретение можно получить у меня, связавшись со мной любым удобным способом.

Жилинский Владимир.




© 2007-2010 Блог интернет-разработчика, автор — Zhilinsky.ru.
При использовании информации ссылка на источник обязательна.