Новые правила регистрации RU-доменов

комментариев 9

RU домены, новые правилаC 1 октября 2009 года вступают в силу новые правила регистрации доменов в зоне RU. Основное нововведение — необходимость предоставления регистратору копии документа, удостоверяющего личность лица, регистрирующего домен. В связи с этим меня всё чаще спрашивают о том, как это будет выглядеть, что придётся делать и каким образом необходимо будет подтверждать свою личность.

Предлагаю короткий ликбез на эту тему на примере моего сервиса регистрации доменов, работающего через регистратора «Наунет СП».

Итак, если у вас уже есть договор (аккаунт), зарегистрированный на ваше настоящее имя, то для продления уже зарегистрированных доменов и регистрации новых вам можно ничего не делать до 1 апреля 2010 года. Но лучше, пожалуй, не затягивать и по возможности перейти на вкладку панели «Загрузить копии документов» и загрузить туда отсканированную копию разворота вашего паспорта (или свидетельства о регистрации юридического лица). Подойдут, замечу, документы любой страны, а не только России.

Зачем предоставлять данные сразу? Очень просто:

Вы не сможете переносить домены к другому регистратору, не сможете передавать права на домены, не сможете менять данные администратора для доменов, зарегистрированных до 1 октября 2009 года без предоставления документов, подтверждающих ваши данные.

Кроме того, регистратор может в любой момент запросить у администратора домена, зарегистрированного до 1 октября 2009, подтверждение его данных (загрузку копий документов). При неисполнении этого требования администратором домены могут быть заблокированы (блокировка операций, снятие делегирования).

Если аккаунта у вас ещё нет, то загружать копию придётся в момент его создания, без этой процедуры регистрация RU-доменов будет невозможна.

Если ваши домены зарегистрированы на «левые» данные, то они попадают в неприятную ситуацию: продлевать вы их сможете без подтверждения личности, но только если они не вызовут подозрений регистратора. Способов «легализации» таких доменов, по словам регистратора, нет. Разве что, перехватить их у самого себя при освобождении (как это делается, кстати?).

Что же касается моих мыслей на этот счёт, то мне кажется, что перемены по большей части к лучшему. Облегчатся «разборы полётов» с вебмастерами, нарушающими закон (плагиат, оскорбления и прочее). Возможно, станет меньше спама во всех его видах. Ещё думаю, что станут дороже и популярнее услуги художников, рисующих фальшивые сканы документов (этой услуге много лет) и услуги по перехвату освобождающихся доменов.

Некий юбилей.

комментариев 16

День рождения - 25 летПарадокс дней рождения — утверждение, гласящее, что если дана группа из 23 или более человек, то вероятность того, что хотя бы у двух из них дни рождения (число и месяц) совпадут, превышает 50 %.

Для группы из 60 или более человек вероятность совпадения дней рождения хотя бы у двух её членов составляет более 99 %, хотя 100 % она достигает, только когда в группе не менее 366 человек (с учётом високосных лет — 367).

Вот в таких размышлениях и проходит рабочее утро двадцать пятого дня рождения в моей жизни. Поеду за город на выходные, объезжать сделанный самому себе подарок с двумя колёсами и двадцатью пятью лошадиными силами.

OpenID: официальный провал?

комментариев 15

openid.pngСопоставьте несколько интересных фактов, которые, по-моему, говорят о провале формата OpenID:

Google отказался использовать OpenID в сервисе Google Apps в пользу схожей с ним собственной системы межсайтовой авторизации — Google Open ID Federated Login API. Фактически, они сделали собственную систему авторизации, что может запросто привести к появлению таких же решений, например, от Microsoft и Yahoo и к окончательному отказу от открытых стандартов вроде OpenID.

Google возрождает старый протокол finger, который позволял получить данные о человеке, зная его e-mail (а не URI, как в OpenID). Новый протокол (WebFinger), естественно, ориентирован на интернет. Среди разработчиков заметен Brad Fitzpatrick — создатель LiveJournal.com и OpenID.

И, кстати, этот самый Brad Fitzpatrick пишет, что проект OpenID по большей части провалился из-за косяков при разработке интерфейсов для работы с ним:

«People have been trying to use URLs as identifiers for people (as OpenID does), as it has great readability/discoverability properties, but this effort has largely failed because of UI/UX design failings, user confusion about URLs, etc.»

И он в сущности прав: сегодня на хабре, например, обсуждают более-менее адекватный интерфейс для авторизации через OpenID, но уже явно поздно. OpenID погубила сложность как при подключении к сайтам (на редкость кривые библиотеки и классы), так и непосредственно при аутентификации пользователя (действительно жуткие интерфейсы, понимание которых начинает приходить к разработчикам только сейчас).

Отменена минимальная цена за регистрацию RU-доменов.

комментариев 15

domain15 августа были изменены правила, касающиеся финансовой стороны регистрации и продления доменов в зоне RU. Теперь регламент RU-14 не содержит минимальных цен на регистрацию, а только «рекомендованные цены».

...
2.Рекомендованная цена услуги по регистрации каждого доменного имени второго уровня в домене RU для Администратора домена (Пользователя) составляет 500 рублей.
3. Рекомендованная цена услуги по продлению срока действия регистрации каждого доменного имени второго уровня в домене RU для Администратора домена (Пользователя) составляет 350 рублей.
...

Совет Координационного центра домена RU, принявший это решение, скорее подстроился под рынок доменов, который это решения принял уже давно: те, для кого цена доменов была важна, уже давно покупали их намного ниже минимальной цены, регистрируясь в качестве партнёров или договариваясь с другими партнёрами регистраторов. И криминала в этом в общем-то не было. Но на рынок это решение всё равно повлияет: те компании, которые не снижали цены именно из-за этой поправки теперь смогут установить любые цены, чем скорее всего усилят демпинг.

Гостевой пост: Микроформаты.

комментариев 5

Мы часто слышим, что интернет находится на переломном этапе своего развития. Такое мнение высказывается как в блогах, так и на различных конференциях. На примере многих новых проектов видно, что вскоре должна настать эпоха семантической сети: нельзя не заметить постепенный уход от интернета, направленного на работу с документами, и переход на содержание. На специализированных конференциях, таких как ISWC и SemTech, ежегодно обнародуются результаты исследований по данной теме.

В глобальной помойке — огромная куча как полезной, так и бесполезной информации. Человек способен без труда обработать данные, размещенные на веб-страничке, и установить их взаимосвязь с содержанием других ресурсов. Машине это, как правило, не удается; поисковые системы выдают только результаты конкретных запросов, обработанных с помощью статистических методов.

К примеру, возьмем поисковый запрос «киски». В серпе: фото ню и продажа кошек. Поэтому оптимальным решением стало бы создание системы поиска, ориентированной больше на семантику, нежели значение слов. В понятии «семантическая паутина» заложен логический способ обработки информации. Но веб-страницы наряду с отображаемыми буковками и цифрами содержат сведения в виде метатекста. Чтобы воплотить в жизнь идею семантического интернета W3C определил ряд открытых стандартов. Значительная роль в них отводится машинным языкам — они позволяют сохранить семантически обработанную информацию в виде онтологий и таксономий.

Один из вариантов перехода «к содержанию» заключается в размещении заранее структурированной информации. Для того, чтобы справиться с огромным объемом информации, представленной в виде документов, программисты пытаются прибегнуть к помощи искусственного интеллекта и компьютерной лингвистики.

«Natural Language Processing» позволяет анализировать естественно-языковые тексты посредством имитации действий читающего человека. При этом, как правило, текст разбивается на абзацы, а абзацы на предложения. Дополнительная структура позволяет раскрыть его семантическое содержание. Поисковый запрос в таком случае сможет идентифицировать и установить связь между лицами, местоположением, объектами и событиями, что заметно снизит количество ошибок поиска.

Следующая концепция носит название «Microformats». В июне 2009 года ей исполнилось четыре года. Идея строится на ручном расширении существующих html-страниц специальными элементами для адаптации их под поисковые системы. К примеру, существует такие обозначения для контактов, встреч и закладок. В настоящее время их используют такие известные платформы, как MobileMe, Facebook, Flickr, Google Maps и Technorati.

Модель «Resource Description Framework», разработанная W3C, описывает формат метаданных в семантическом вебе и подразумевает внедрение в страницы роботочитаемой информации. Однако подходы к реализации данного замысла отличаются друг от друга. Сообщество разработчиков микроформатов стремится к выполнению наиболее важных требований с наименьшими затратами. Тем не менее RDF ближе к «рекомендациям» и, скорее всего, она надолго заменит MF.

Семантический интернет может решить проблемы, связанные с поиском нужной информации и объединением данных из различных источников. Имеются стандарты описания информации из различных источников, которые являются общепризнанными, а также существуют методы освоения неявных знаний, усваиваемых только в процессе длительного обучения или в результате личного опыта. Концепции, касающиеся семантического анализа классических веб-страниц или наполнения их метаданными при помощи RDF, показывают, что переход к интернет-страницам нового типа возможен и уже начался. Перенос знаний из открытых баз данных («Википедия», все дела) — первый этап этого процесса.

Семантический интернет может начать функционировать только при наличии большого количества информации. Причем обработка таких элементов, как контакты или встречи, будет осуществляться гораздо проще. Переход от поиска понятий к ответу на «естественно-языковые вопросы» должен произойти уже в ближайшие годы.

Жилинский: Вот вроде написано много, а о чём? Я писал про микроформаты в 2007 году, с тех пор ситуация изменилась совсем чуть-чуть.

Автор гостевого поста — Fan Arsenala. 7bloggers.ru.

Поисковые роботы в статистике посещений

комментариев 5

Определение робота поисковой системыВниманию читателей (и себе на память, как обычно) предлагаю законченное решение по отсеиванию ботов поисковых систем — PHP-скрипт, анализирующий активность кроулеров ПС на сайте. Кстати, кроме аналитики такой скрипт может быть полезен, если какой-нибудь особо активный бот мешает нормальной работе сайта.

Скрипт написан на PHP (возможна работа как в режиме модуля Апача, так и в FastCGI), полностью валиден (в рамках соответствия стандартам xHTML1/Strict и CSS/3), имеет гибкую систему настроек и панель управления. Скрипт также может отображать историю активности ботов конкретной поисковой машины.

Скачать скрипт и получить инструкции по его установке можно на сайте его разработчика — Usings.ru.

Curl based HTTP Client vs. Snoopy

комментариев 11

Началось всё с того, что мне захотелось получать некоторые данные не прямым запросом, а через прокси. Переписывать много кода пришлось бы в любом случае, но на популярные грабли наступать не хотелось.

Задачу «отправить POST- или GET-методом данные и получить результат через прокси» взялись выполнить два PHP-класса.

PHPCurl HTTP Client — простая, но эффективная ООП-оболочка над библиотекой Curl. Содержит все методы, необходимые для получения данных со страниц, подмены referrer, авторизации, отправки POST-запросов, управления cookies и т.д.

Snoopy the PHP net client — PHP-класс, эмулирующий работу веб-браузера. Он автоматизирует получение содержимого страниц или, например, отправку форм. Запросы формирует функцией fsockopen().

Функции этих классов очень похожи. Оба они умеют получать содержимое страниц, отправлять любые значения полей User-agent и Refferer, передавать данные POST- и GET-методами, передавать Cookies, и ещё куча мелких бонусов у каждого класса.

Но работают они кардинально по-разному: одна использует системную библиотеку, а вторая PHP-функцию, поэтому я решил сделать замеры скорости для этих классов на одинаковой задаче.

Задача получилась такая: подключить класс, установить User-agent и Refferer, получить страницу с чужого сайта, вывести прошедшее время, повторить всё 100 раз.

Увы, результаты презентативными не оказались: классы показали одинаковую работу в одинаковое время с крошечным отрывом Snoopy в пределах погрешности. Так что можно пользоваться любым из них.

Эстафета QWERTY: награждение

комментариев 5

Эстафета 5 вещейИнтернет-провайдер QWERTY внимательно изучил все посты, учавствовавшие в эстафете «5 вещей, которые мне заменил интернет» и выбрал победителей, которые получат обещанные флешки.

Честно говоря, я не знаю и не имею даже малейшего представления о том, по каким критериям отбирались победители. И всё же, вот их список, мои поздравления принимают:

1) Apple & Tech (Macman.ru)
2) steissd
3) business-mag777
4) barrabulka
5) Лучиэнь ищущая Тень
6) Иван Победоносов
7) ИМХО блог(Imhoblog.ru)
8) Я. Спасибо :-)
9) 1001friends
10) neoguru

В ближайшее время с владельцами этих блогов должны связаться представители QWERTY для уточнения адресов доставки подарков.

Мониторинг и анализ доступности сайтов

комментариев 16

МониторингЯ собрал в один список все известные мне сервисы, позволяющие следить за правильной работой сайта и сообщать владельцу, если что-то не работает или работает не правильно — этот процесс обычно называют мониторингом.

В моём списке сервисы упорядочены по увеличению Alexa Traffic Rank основного домена, то есть от самого популярного к самому альтернативному (кроме первого сервиса).

1. Webpinger.ru (уже отключен) — многофункциональный сервис для мониторинга сайтов и серверов. Сообщает о проблемах уведомлениями на электронную почту, ICQ и SMS. Поддерживает основные виды протоколов (http, https, ftp, pop, smtp, socket, dns). Большое число точек мониторинга по всему миру, их количество постоянно растет. Частота проверок от 5 до 60 минут. Подключение 10 первых сайтов бесплатное, большой выбор систем оплат за подключение платного тарифа.

2. Яндекс Метрика умеет проверять доступность сайтов и уведомлять об этом по SMS и e-mail. Хотя, говорят, не очень ровно и не очень вовремя. Необходима установка счётчика на страницы сайта.

3. Pingdom.com — очень популярный англоязычный сервис мониторинга сайтов. Базовый тариф стоит $9.95 в месяц и позволяет контролировать 5 сайтов из множества точек и получать 20 SMS-уведомлений за оплаченный период.
Доступные протоколы мониторинга: HTTP/HTTPS, Ping, TCP/UDP, DNS, POP3/IMAP/SMTP, проверка содержимого страницы.

4. Host-Tracker.com — тоже популярный сервис, но с русскоязычным интерфейсом и бесплатным тарифом. Количество точек для мониторинга — 47. Позволяет бесплатно мониторить 2 сайта с интервалом проверки доступности 30 минут и получать еженедельные отчёты на e-mail.
Более продвинутый мониторинг стоит $5 в месяц (оплатить можно почти всем, даже Яндекс.Деньгами) и позволяет проверять каждые 10 минут до 5 сайтов, формировать отчёты, проверять содержимое страниц и получать до 10 SMS-уведомлений в месяц. Поддерживает отправку уведомлений в ICQ и Jabber.

5. Siteuptime.com позволяет бесплатно проверять 1 сайт. В конце месяца высылает отчёт, имеет много точек мониторинга и замеряет время отклика страницы. На бесплатном тарифе интервал мониторинга может быть 30 или 60 минут, протоколы — HTTP, POP3, SMTP, FTP, SSL, DNS, TCP, Ping, Content, HTTP Password Protection.

6. Site24×7.com — сервис довольно удобный, но тоже платный. Есть бесплатный сильно ограниченный тариф с интервалом мониторинга раз в 60 минут, но с возможностью замеров скорости отклика.

7. Internetseer.com (уже отключен)  — бесплатный тариф позволяет проводить мониторинг доступности раз в час, остальное — за деньги.

8. Hyperspin.com — платные сервисы. Полный набор стандартных возможностей (ping, HTTP, HTTPS, FTP, SSH, SMTP, DNS, POP3, IMAP, MySQL, уведомления по e-mail и SMS, 13 точек мониторинга). Расчёт стоимости происходит индивидуально, например, мониторинг 1 сайта по 1 порту раз в 15 минут стоит $2 в месяц, а отправка 1 SMS-уведомления — $0.20.

9. Mon.itor.us (уже отключен)  — невероятно мощный и функциональный сервис мониторинга сайтов, сервисов и сетей. Куча возможностей по опросу (HTTP, HTTPS, FTP, SIP,IMAP, SMTP, POP3 на любом порту, любой TCP или UDP порт, DNS, Ping) и отчетности, мониторинг из 3 точек, опрос каждые 30-45 минут, предупреждения высылаются на e-mail, ICQ, YIM, MSN, GTalk, SMS. Можно скачать и установить программу-агент (под Windows), который помимо мониторинга процессов, памяти и жестких дисков самой машины может выступать в роли еще одной точки опроса (HTTP и Ping).

10. Montastic.com — бесплатный, простой и эффективный. Позволяет проверять до 100 сайтов, имеет 2 точки мониторинга и интервал проверок около 10 минут. Умеет формировать отчёт в виде RSS-канала.

11. BasicState.com (уже отключен)  — довольно полезный, и при этом бесплатный сервис. Каждые 15 минут он пытается определить IP-адрес сайта по DNS (resolve), установить HTTP-соединение и получить данные. При возникновении ошибки сервис отправляет уведомление об ошибке, этапе на котором она произошла и её характере. Позволяет мониторить неограниченное количество сайтов.

12. AreMySitesUp.com на бесплатном тарифе обещает проверять сайт раз в 60 минут или быстрее и сообщать в случае проблем, по возможности с анализом их причин.

13. UptimeInspector.ru (уже отключен) — платный сервис с большим количеством услуг и сложной схемой подсчёта их стоимости.

14. Verinet.ru (уже отключен) — на бесплатном тарифе мониторит 1 сайт раз в 30 минут и отправляет уведомления на e-mail и ICQ. Платные тарифы от $1 в месяц.

Кроме онлайн-сервисов для мониторинга состояния сайтов, сетей и сервисов можно воспользоваться десктопными приложениями. Стандартом де-факто тут является Nagios, альтернативой — Zabbix. Определённо, стоит упомянуть и о Monit.

Если вы знаете ещё аналогичные сервисы — пишите в комментарии, пополним список.

Chaos Constructions 2009!

комментария 2

Chaos Constructions 2009

Новость дня — срочно в номер. Появилась информация о компьютерном фестивале Chaos Constructions 2009.

Фестиваль состоится 29-30 августа в КВЦ «Евразия» на станции метро Лесная в Санкт-Петербурге. Уже запущен новый сайт фестиваля. Это уже 12-й ежегодный некоммерческий фестиваль компьютерного искусства, существующий с 1995 года.

Я был посетителем CC’2006, участвовал в организации CC Antique’2007, приезжал из Москвы на СС’2007 HackAround, помогал с организацией CC’2008, и, конечно, не упущу возможности поприсутствовать на 12-й версии этого события.

Всё о фестивале и формате его проведения можно почерпнуть на его сайте и по вышеуказанным ссылкам, а если вкратце, то:

Вас ждёт обширная конкурсная программа, семинары на различные околокомпьютерные и hi-tech темы, выставка электронных устройств и раритетных компьютеров, демонстрация видеоматериалов и конкурсных работ с других фестивалей.

Посетителям с ноутбуками будет предоставлен бесплатный доступ в интернет, девушкам —  бесплатный вход, в общем, всё как обычно в хорошем смысле этого выражения. Подробности буду выкладывать по мере их поступления.


© 2007-2026 Блог разработчика, страница об авторе.