?

Log in

spiderhood

Thursday, April 1, 2010

3:43PM - Первоапрельская книжка

Купил на днях такую вот книжку на озоне:


Не потому, что мне не терпелось знать, как разработать компилятор паскаля, а просто интересно было, что там можно было написать помимо «вот за эти полчаса я и скачал/набросал грамматику и сгенерировал компилятор» или «мне было лениво писать грамматику, поэтому скачал доки и я написал всё с нуля за целых полдня». Иными словами, мне отчего-то верилось, что на дворе 2010 год, а твёрдый переплёт внушал веру в человечество. Ну или просто внушал.

нечто вроде рецензииCollapse )

Вот так и веселимся.

Monday, December 8, 2008

3:01PM - Virgin Killer

Через tarlith_history узнал о замечательной свежей драме в Википедии. Английский фонд Internet Watch добился того, что обложка старинного альбома Скорпов Virgin Killer была признана потенциально педофильской, а потому надо её перестать людям показывать. Технически это было реализовано системой Cleanfeed, давно известной тем, что обратным инжинирингом её можно использовать как поисковик по запретным ресурсам (автор статьи, кстати, интересный дядька, защищавшийся по теме анонимности и следов в интернете), на которые потом ходить анонимайзером. Следует отметить, что система не блокировала доступ к самой странице, а генерила поддельную страницу с текстом "такой статьи в Википедии нет" для обмана пользователей. Такая страница показывалась 95% англичан (по данным Guardian). Для того, чтобы работать на таком уровне, им пришлось роутить весь трафик Википедии через себя, что не только тормозило работу, но и мешало англичанам редактировать статьи — автором анонимных правок записывался айпишник блокиратора. Ждать было недолго, среди 20000 анонимщиков появился один вандал, которого забанили, и теперь англичане не могут вообще ничего редактировать, если раньше не озаботились созданием аккаунта.

Ну, про детское порно уже и говорить что-то лениво: последние как минимум три года в моде охотиться за злобными педофилами и маньяками именно в интернете, а не в реале. Причём желательно даже не просто в интернете, а в жертвы выбирать виртуальных педофилов — тех, которые к реальным детям не прикасаются, но, скажем, их рисуют. Или даже ещё лучше — рисуют не реальных детей, а выдуманных персонажей книг и мультфильмов. В общем, «художника каждый обитель может» в полный рост: зачем искать настоящих преступников, когда можно закрыть сайт с рисунками гаррипоттеров и засчитать себе такой же фраг? Жду с нетерпением, когда реальные кражи тоже начнут забывать в пользу охоты за теми, кто скачивает себе полулегальный контент (что, в общем-то, уже не за горами).

Интересно другое: проблемы с выбранным способом (генерировать поддельный контент) в основном технического плана и волне устранимы. Возможно, это станет доброй традицией, и подделывать (с протоколированием) будут на разных уровнях (корпорация, локальный ISP, гейт и т.п.) с разными целями. Доживём — увидим, но чувствую, что о подобных скандалах услышим ещё не раз. Как перестанем слышать — значит, научились делать совсем правдоподобно ;)

Tuesday, November 11, 2008

10:24AM - Скажи мне, кто твой друг, и я проанализирую твой голос

Кто ещё не видел фильм Taken (в переводе — "Заложница") и собирается смотреть что-то другое, совершает преступление против человечества. Замечательный получился фильмец, очень неожиданно порадовал. Как-то так сложилось, что не выпускали последнее время боевиков хороших, честных, всё или соплежуйство, или порнохоррор, или стёб, а чаще на всякий случай всё сразу. Нет, я понимаю, всякие Shoot 'em Up — это тоже клёво, но пора бы и честь знать. Боевик, кстати, не так уж и прост — уже то, что главного героя играет чувак из Списка Шиндлера, о чём-то говорит (говорят, он ещё в Звёздных Войнах засветился, но тут я не в курсе).

В фильме есть один забавный момент, почти не спойлерный: информатор главного героя по небольшой записи разговора нескольких злодеев определяет не только язык, на котором те говорят, но и родной город говорящих, а также и имя одного из них. Фантастика, скажете вы? Ну, лично вы, может, и не скажете — чего с френдлентой вслух разговаривать? — но большинство зрителей, я уверен, закинув горсть попкорна в глотку, сказали или по крайней мере подумали именно это. Так вот хрен вам, то есть им, зрителям этим, а не фантастика. Это очень правильный и очень реалистичный момент. Если и не сейчас, то уже в самом ближайшем будущем это не только возможно, но и вполне нормально. В том числе именно поэтому мне так неинтересен киберпанк — мои представления о том, как будет происходить поиск информации в будущем, категорически расходятся с прогнозами ролевиков и фантастов.

Вот примеры того, что есть уже сейчас:


Кроме того, существует несколько вариантов софта вроде Shazam, которые работают чуть менее мудрёно, но более надёжно, используя в качестве поисковых сэмплов нечто записанное на микрофон мобильника. Услышал где-то песню — достал телефон, нажал на кнопку — узнал название. Идеально!

Thursday, November 6, 2008

11:54AM - Чем страшен информационный потоп

Кто утонет
Информационный потоп, о котором так долго нам говорили все кому не лень, а потом как-то резко перестали ("как-то все умерли"©e_grishkovets, то есть утонули, видать), страшен отнюдь не тем, что информации просто много, с этим как раз справляться проще всего, а тем, что информация эта принципиально разнородна. Я этого вопроса уже касался, но хочу добавить ещё пару слов.

Вчера gufan_gufan, консультируя в очередной раз своих качков, посоветовал кому-то погуглить "белковое окно". Я тоже погуглил, и результат был интересным — нашлось прежде всего очень много... нет, не объяснений, что такое белковое окно, а аналогичных советов погуглить. Эдакая поисковая рекурсия.

В аналогичную ситуацию попадаю каждый раз, когда хочу по ключевой фразе восстановить анекдот или вспомнить автора. В последнем случае, если вопрос только в том, Чехов это или Толстой, ещё можно просто искать по тому же либ.ру, а в первом случае — совсем глухо, легче в аське начать у всех знакомых спрашивать, не помнят ли они про "осадочек-то остался" или про "не того негра разбудили". Индексируемое поисковой системой информационнное поле однородно, она не отличает самой информации от упоминаний этой информации, потому что ключевые слова те же самые и на тех же местах.

Не зря в позапрошлом году Дэниелу Кляйну вручили премию имени Грейс Мюррей Хоппер за систему, которая может по английскому тексту сконструировать качественную грамматику. Нам нужна помощь лингвистов всех мастей, которые придумают эвристики, чтобы автоматически отличать текст анекдота про текст про анекдот, чтобы отличать учебник от форумного трындежа, чтобы маркировать каждую страницу в интернете автоматически как можно большим объёмом семантических метаданных. Подход со взвешенными ключевыми словами себя исчерпал, нужны более информативные аннотации.

Tuesday, November 4, 2008

1:39PM - Ситизендиум

Ситизендиум — это текущий проект Ларри Сэнгера. В вики-кругах это личность и без меня известная, а для остальных скажу только, что это сооснователь Википедии и её главный редактор ещё в те годы, когда там были редакторы. Принято считать, что именно его идеей было опустить порог вступления в ряды участников тогда ещё Нупедии с экспертного, а потом они с Джимми Уэйлсом разругались, тот его уволил, а этот стал в своих блогах и мемуарах писать о том, какой он крутой и какой Джимми лох. Ну, в общем, всё как всегда у людей.

После ухода из Википедии (а, может, и до него — тогда Джимми "всё правильно сделал"©) к Сэнгеру стали возвращаться юношеские мечты об энциклопедии, которую будут писать эксперты. Всё без ошибок, всё бесплатно и всего много — ну, вы понимаете, мечты. Почему он на эту тему начал думать, я полагаю, ясно: проблемы проекта стали виднее. А вот почему не придумал ничего нового — это уже другой вопрос. Так или иначе, с нескольких попыток он таки запустил альтернативный проект — как раз вышеупомянутый Ситизендиум.

Та же Википедия, только в профиль: анонимно править нельзя, регистрироваться можно только реальным именем и на своей страничке писать не абы какую хрень с юзербоксами, а полноценную биографию. Из интересного: они заменили википедическое понятие значимости понятием завершаемости: если статью можно довести до ума и дальше поддерживать в завершённом виде силами очень ограниченного числа экспертов, то ей следует заняться. Из ужасного: они отказались от категоризации в пользу вручную проставляемых непроверяемых перекрёстных ссылок. Не хочу никого обидеть, но любой отказывающийся от автоматизации — идиот.

8500 статей в англоязычном проекте за два года - это до неприличия мало, каким бы высоким ни был их декларируемый уровень. Причём проект не то, чтобы не проталкивается, скорее наоборот: предлагают и присылать статьи в вёрде, и заставлять студентов писать, и проводят разъяснительные беседы, отчасти противоречащие первоначальной идее. Например, загляните в раздел информатики, он вообще фактически пустой. В математике не хватает даже теоремы Банаха, которая есть в дюжине секторов Википедий и которую помню в общих чертах даже я, видевший её один раз десять лет назад. А почему её нет? Да по очень простой причине — ну неинтересно нормальным экспертам писать про теорему Банаха, про якобиан, про иерархию Хомского, абстрактные типы данных и конечные автоматы. Потому что он этим и так занят на работе, а в преподавании, в отличие от вики-сайта, есть очевидная аудитория и есть её отклик. А объяснения эксперта определяются в первую очередь именно аудиторией.

Мораль: не надо делать вики-проектов для экспертов. Совсем не надо. Эксперты и так знают, чем им заняться и где чего написать. Вики-сайты весело работают там, где участвовать просто и ненапряжно. Если попробовать сделать вики-сайт для экспертов, придётся то и дело двоемысляще отступать от элитарности, и всё равно ничего не получится. RIP, Citizendium.

Wednesday, October 29, 2008

9:07AM - Всё придумано до нас

Уже совсем не обязательно придумывать темы для постов в жж: достаточно взять одну из чужих страниц, мелькающих ежедневно десятками перед глазами, дать на неё ссылку и объяснить на пару абзацев, в чём там фишка.

Например, вот mihail_kukuruza пишет об адресах вебсайтов. Шутит, вроде как. Или нет?

Несколько лет назад придумали в браузерах (если не ошибаюсь, сначала это появилось в Нетскейпе) делать очень клёвый финт: если адрес сайта не найден, то пользователь видит на экране не надпись «адрес не найден» в дурацкой рамочке со списком советов, а результат работы одного из этих советов. Например, набрал пользователь «microsoft», браузер сам понял, что сайта такого нет и быть не может, добавил префикс www и постфикс com — сайт нашёлся. Набрал пользователь «cute dead kittens», сайт не найден ни с какими суффиксами — пользователь получает список ссылок, выдаваемый поисковой системой с таким запросом. И так далее (хотя тут можно и не продолжать, эти два сценария худо-бедно решают всё).

Это казалось тогда хорошо и правильно — и было хорошо и правильно, и даже до сих пор остаётся хорошо и правильно, но... уже не нужно, вот в чём штука. Даже сейчас практически все хорошие что-то означающие домены уже расхватали. Ещё чуть-чуть — и расхватают вообще все, так что стартапам придётся уже не из-за свербящего в одном месте креатива, а просто по необходимости называться странными новыми словами вроде Вакупы или Гугла, либо искажёнными вроде Фликра или Допплра. Но все без исключения что-то значащие адреса будут растасканы уже лет через пять максимум. Вокруг них будет только информационный шум двойников и спамеров, особенно пострадают сайты с плохими названиями: например, alarussовский МойКомпас — это moikompas.ru или moicompas.ru?

Да чего уж там — можно будет вообще имена сайтов упразднить и устроить вход только по ключевым словам и по закладкам. Обломитесь со своим IPv6!

(edited) Синхронистичненько: искал конвертор видео для айпода под мак. И где бы вы думали нашёл?
Вот тут: http://www.dvd-to-ipod-video-converter-for-mac.com-http.com/how-to-convert-avi-to-ipod-for-mac.html

Tuesday, October 28, 2008

10:03AM - Как я провёл лето

Уже известный всем музыкальный «скробблер» Ластыфэм амстердамские вебдванольщики обобщили в виде нового сравнительно сервиса Wakoopa, считающего, сколько и какого веб-софта кто использует. Так как я проснулся и подключился к нему только на прошлой неделе, то возникло желание написать мини-обзор. gufan_gufan опять подбивает начать разглагольствовать на предсказательную тему - с этим мы повременим, но и сходимостью грамматик читателей грузить, как оказалось, не стоило.

Кроме очевидно интересной идеи не могу не отметить как минимум две забавных детали реализации. Во-первых, каждому пользователю в профиль пришивается облако меток, собранное из самых популярных меток используемого им софта, но взвешенное по именно его данным об их использовании. Метки там вроде «is social», «shares files», «surfs the web» и так далее (то есть действительно относящиеся к людям, а не к софту - кому он, софт этот, нужен?). Вроде простая, двухшаговая, идея, но довольно редко встречаются нынче и такие. Во-вторых, впервые вижу страничку «что нового» динамическую (AJaX!). Когда на большинстве вебсайтов до сих пор правит убогое наследие девяностых годов прошлого века с их «хомяками» и железобетонно статичными «новостями», обновляющимися раз в несколько месяцев (ещё на первую страницу сайта их загнать надо! и с новым годом, с новым годом не забыть поздравить! это же так важно!), тут не поленились сделать на аяксе, и после раскрутки сайта это более чем окупается. Заходит человек левый на сайт, и сразу видит: кто-то один новую программу запустил, кто-то другой зарегистрировался, кто-то третий обзор написал... движуха! В наше время люди категорически не могут себе позволить тратить время на полудохлые сайты.

Несмотря на наличие у многих пользователей смехотворной (но небезосновательной, надо сказать) паранойи по поводу так называемых личных данных, популярность скробблеров и прочие трэкеров будет только расти. Вычислительные мощности экономить уже на надо (заявляю ответственно, как владелец четырёхядерного ноутбука, гоняющий его круглые сутки чуть ли не на пределе), и копошащаяся где-то там в глубинах системы маленькая программка, собирающая данные о том-о сём - это прекрасно. Статистика не врёт - по крайней мере, пока её не касаются заинтересованные в подтасовке руки. (Вспоминаем хотя бы скандалы-интриги-расследования на лепре с тем меломаном, который боролся с вешалками, а на ластыфэме вместо фуг Баха имел фигу рэпа, или тех же loky1109 и leomir, бросившихся отмазываться от чтения чужих форумов, когда я сделал статистику для мансера). А сама по себе правильно собранная и «раскопанная» информация - товар ходовой и ликвидный.

Кто хочет тоже попробовать и узнать, какой софт для меня самый ходовой - говорите, пришлю инвайт. Зарегистрироваться-то там можно и без него, но так мне, небось, плюшки какие-то дадут ;)

Tuesday, October 7, 2008

9:54AM - Сходимость грамматик: языковые спецификации Явы

Пока javac не перешёл на ANTLR (для которого экстрактор у нас уже есть), можно в качестве источника использовать книжку под названием Языковая спецификация Явы. Таких книжек, как видно, есть целых три штуки, и в каждой из них знания о грамматике содержатся в двух местах: в синтаксическом приложении (§19 в JLS1 и §18 в JLS2 и JLS3) и раскиданным по тексту. Таким образом, у нас получается шесть источников, из которых можно извлечь грамматики и заняться их сходимостью. Но сначала — о том, какой потребуется экстрактор.

Сначала нужно отделить формулы БНФ от текста — для этого можно было бы сделать //pre, если бы работал XPath, но на сделанных криво вручную невалидируемых гипертекстовых файлах он не работает, так что пишем отдельный скрипт. Так как мы хотим универсальности, а в JLS3 в pre встречаются и примеры, приходится параметризовать первую стадию, чтобы знать, из каких параграфов формулы брать, а из каких нет. Используемый диалект БНФ интуитивно понятен: [x] означает необязательную часть, {x} — рефлексивно-транзитивное замыкание («звёздочку»), альтернативы пишутся каждая на своей строчке, терминалы прямым шрифтом, нетерминалы и символы БНФ — курсивом. Изредка встречается xopt — аналогично квадратным скобкам (только в JLS1), x|y — локальный выбор (кроме JLS1), one of — метка для сокращения определений из тривиальных альтернатив. Чтобы потом не ковыряться вручную, автоматизируем исправление простейших ошибок: досрочный переход на другую строку (начинается с другого числа пробелов/табуляций, можно отличить от новой альтернативы), неверная расстановка курсива, дублирующиеся определения.

Дальше начинается самое интересное: автоматизация исправления семантических ошибок. То есть мы знаем, например, что скобки используются для группировки и ограничения локальных выборов. Значит, если нам встретились подряд токены ( ), то это не может быть группой БНФ, на самом деле там должно стоять "(" ")" (и аналогично со всеми скобками, между которыми нет BNF bar. Можно исправлять и сами скобки: проверяя парность, добавляя, выкидывая, трансформируя терминалы в нетерминалы и наоборот. Терминал, начинающийся с большой буквы, можно попробовать найти в грамматике — если у нас есть его определение, то это на самом деле нетерминал. Справедливо и наоборот. Вышеупомянутый BNF bar встречается часто, а "|" — редко и в специфическом контексте, который можно отлавливать. И так далее, и тому подобное.

Всего при извлечении грамматик из трёх синтаксических приложений исправляется 5, 28 и 84 ошибки соответственно для JLS1, JLS2 и JLS3. При работе с формулами, собранными по тексту, экстрактор находит 8, 126 и 115 ошибок. Всего 366 ошибок, для каждой из которых пришлось бы вручную писать по формуле как минимум. Автоматизация рулит! Напоминаю, что работающий экстрактор лежит в репозитории Software Language Processing Suite, статья про Яву ещё не готова, есть только Введение в сходимость грамматик. Stay tuned.

Monday, October 6, 2008

9:08AM - Сходимость грамматик: общая методология

О восстановлении грамматик (в широком смысле — то есть хоть объектных моделей, хоть XML схем) написано уже достаточно много, чтобы любая публикация натыкалась на рецензентов, которые будут считать, что о них написано уже всё. В качестве источника берётся какой-то артефакт, содержащий знания о грамматике в явном или неявном виде, к нему применяются известные алгоритмы вывода — и вуаля, грамматика в чистом виде на выходе. Источником может служить языковой стандарт, учебник, исходники компилятора, даже корпус текстов на извлекаемом языке — для каждого случая своя технология и свои экстракторы.

Что делать с грамматикой после извлечения? Использовать. Можно сидеть и любоваться, можно трансформировать дальше для ликвидации идиосинкратических конструкций, выдающих своим присутствием источник, можно перевести в гипертекст и использовать как инструмент языкового инженера, можно скормить генератору парсеров и получить свой компилятор, с блекджеком и шлюхами, можно писать основанные на грамматике трансформации для самого языка - рефакторинги, претти-принтеры и тому подобное. А можно исследовать грамматики на сходимость.

Берём несколько источников для одного и того же (предположительно) языка. Решаем задачу извлечения грамматик, получаем несколько грамматик в чистом виде. Проводим с каждой из них те трансформации, которые считаем нужными. Сравниваем. Если получается нечто эквивалентное, то грамматики сошлись, и можно использовать разные метрики на пост-экстракционные преобразования, чтобы понять, каково реальное отношение грамматик друг к другу и насколько их надо было тянуть за уши, чтобы подтвердить равенство, считающееся само собой разумеющимся.

Вот и всё. Предыдущий абзац и есть краткое определение сходимости грамматик. Текущее положение дел можно наблюдать в проекте Software Language Processing Suite (есть SVN-репозиторий с рабочими прототипами), предпочитающие статьи могут прочесть Введение в сходимость грамматик (сверхсжато, но довольно формально), любители блогов — то же другими словами и на буржуйском. Stay tuned.

Thursday, October 2, 2008

11:30AM - Наш подход превращает кувалду связей базы знаний в скальпель

Передумал, не буду сегодня писать про сходимость грамматик, потому что пришла замечательная ссылка от gufan_gufan: http://www.scientific.ru/trv/2008/013/erunda.html

Если вкратце, то «Журнал научных публикаций аспирантов и докторантов», солидное издание, одобренное ВАК, опубликовало текст «Корчеватель: Алгоритм типичной унификации точек доступа и избыточности», который был написан не человеком, а автоматически сгенерирован программой. Название, если кто без подсказки не догадался, является дословным переводом англоязычного опыта в этом деле, феерической статьи “Rooter: A Methodology for the Typical Unification of Access Points and Redundancy”, которую студенты Массачусетского Технологического Института послали на Всемирную Конференцию по Системике, Кибернетике и Информатике, живую по сей день. На сайте SCIgen есть больше информации, ссылок и объяснений, есть даже веб-интерфейс для желающих повторить опыт.

Текст у русского варианта оригинален. Это первый известный мне успешный опыт подобного рода на нашем языке. Более того — английскую статью приняли просто так, бегло просмотрев, а у нас приняли после рецензирования, то есть её весьма внимательно читали живые люди. Тест Тьюринга не выдержал ещё раз. Роботы захватят мир. Следите за новостями*.

* - вот уж что точно напоминает случайно сгенерированный поток информации, так это новости...

Wednesday, October 1, 2008

3:17PM - Умер информации орисс, похожий на человека

wordle
Wordle - хороший пример автоматизации. Берётся нечто уже существующее, прогоняется через простенький алгоритм, и выдаётся юзеру картинка с интересным и неочевидным для него содержимым.

А вообще, надо бы снова жж-активностью заняться. Написать вам, что ли, про сходимость грамматик...

Friday, August 29, 2008

2:23PM - Вдруг война - а я уставший?!

Позавчера агентство Блумберг случайно опубликовало некролог Стива Джобса. Кроме того, что это просто любопытно — почитать эпитафию ещё живого человека, хотелось бы осветить этот казус с двух сторон.

Во-первых, сама идея заготовить торжественно-скорбящую простыню заранее довольно прогрессивна и отвечает духу времени. Мир меняется слишком быстро, чтобы успевать реагировать на всё, а именно такого хронического успевания ожидают от новостных агентств. Именно поэтому к событиям, которые хоть как-то можно предугадать, будут готовиться заранее, чтобы в нужный момент не тратить время на ресурсоёмкие операции вроде генерирования контента: в портфелях новостных сайтов, SMO-экспертов, политиков, да и просто активных блогеров будут скапливаться не только некрологи, но и соболезнования/поздравления (в парах). Помните историю с листовками на последних выборах? То-то. Сейчас это делается спонтанно и вручную, но стоит поднапрячься, автоматизация и тут заиграет новыми красками.

Во-вторых, точно так же, как была стёрта разница между копией и оригиналом, в ICT-мире тускнеет баланс между ценой ошибки и лёгкостью её совершения. Один раз один человек не туда мышкой ткнул - и всё, скандалы, интриги, расследования, весь интернет на ушах. И это ещё сразу заметили, а про успехи Красной Армии статья в Таймс долго не сходила с первой полосы. Про энциклонгов как смеялись, форвардили друг другу — а сайт-то после этого умер, не было доверия ему, все припоминали мелкий баг в лексическом преобразовании. Сейчас уже не девяностые годы, когда верхом вебдизайнерской мысли были одинаковые кнопки рядом, одна из которых отправляла информацию на сервер, а другая её стирала, но и у эргономичности и стабильности есть свои пределы. Насколько удобство, абстракция, автоматизация, шаблоны/рецепты и бэкапы смогут отдалить кризис? Доживём — увидим.

Edit (1/IX/08): в новостях встретился похожий, но более личный и менее корпоративный случай - учительница перепутала флешки и дала ученикам своё домашнее порно вместо контрольной. По второму пункту для некоторых такой пример более точно иллюстрирует мою мысль.

Monday, August 4, 2008

12:42PM - 1500 дней википедического стажа

Сабж, и не удержался - впервые в жизни проголосовал на выборах нового администратора. Проголосовал против, и не жалею, хоть человека наверняка и выберут, что чревато неприятностями. Решил действовать, прочитав всего одно обсуждение, где кандидат предлагает в правилах заменить фразу "Википедия — не первичный источник информации, а вторичный источник информации, то есть такой, который собирает, анализирует, оценивает, интерпретирует и синтезирует информацию из первичных источников" на более, по его мнению, правильные - "Оригинальным исследованием считаются любые неопубликованные ранее факты, аргументы, рассуждения и идеи, а также любой анализ или синтез опубликованного материала, который призван обосновать точку зрения, прямо не высказываемую авторитетными источниками. Википедия не место для публикации собственных мнений, опыта или доводов в споре".

Напомню для тех, кто в клуб не входит: "оригинальные исследования" (ОрИсс, OR) испокон веку признавались недостойными Википедии и были одной из самых частых и весомых причин выставления статей на удаление (и последующего удаления). Наглый ОрИсс - это статьи вроде "Вася - козёл" или "НЛО - это духи потерянных бумажников", или та же пресловутая "философия компьютерных существ" за авторством непотопляемого alexlotov (оп-па, да он засуспенжен!). Мелкие ОрИссы - это настойчивые выражения собственного мнения, приводящие к потери Нейтральной Точки Зрения (NPOV).

Так вот, принятие предлагаемой поправки приведёт к тому, что "философия компьютерных существ" ОрИссом быть перестаёт, и её невключение зависит уже только от т.н. "значимости", которая вычисляется как сумма хитов в гугле и мнений админов (а пиарить Лотов умеет, поэтому хитов будет всё больше), но при этом практически каждая вторая фраза в любой произвольно взятой статье, выражающая идею, рассуждение или аргумент, ранее нигде не опубликованный, ОрИссом признаётся сразу. В результате прямое применение правила такое: все статьи надо удалить, а остальные переписать.

Я действительно не понимаю, как вообще можно всерьёз такое обсуждать. Какой интерес писать статьи, если нельзя использовать собственный опыт, если нельзя сопоставлять факты и нельзя делать выводы? Какой вообще смысл писать, если в результате должна по определению получиться точная копия оригинала?

Saturday, July 12, 2008

6:25PM - Django Reinhardt

Трудно жить, слушая старую музыку - часто путаешься. Увидел объявление, что сегодня на пляже будет играть Джанго Рейнхардт, собиратся идти, но всё-таки проверил на всякий случай по ластыфэму.

Оказалось, что Джанго Рейнхардт, которого я знаю, умер пятьдесять пять лет и полтора месяца назад.

Наверное, на пляже всё-таки будет играть не он.

Не пойду.

Thursday, July 10, 2008

9:59AM - Social media optimisation в действии

Зашёл в кои-то веки на викидот — там, оказывается, карму ввели и градацию ступенчатую по ней. У меня она оказалась максимальной, с рангом «гуру». Вроде мелочь, а приятно.

Пришло письмо от ластыфэма — выбрали меня как активного слушателя, чтобы предложить поучаствовать в бете, уже всё сделали сами, мне только ссылку - заходите, мол, всегда вам рады. Мелочь, а приятно.

На аниреке основательница сайта не поленилась зайти ко мне в профиль и оставить не шаблонный, а вполне осмысленный комментарий с благодарностями за хорошие рекомендации. Тоже мелочь, и тоже ведь приятно.

Вот из таких мелочей и складывается сетевая социальщина. На ровном месте дать человеку почувствовать себя особенным. Тем и живём.

Wednesday, July 9, 2008

4:43PM - Кража identity

Я уже давно обещал написать об этом, а тут ещё gufan_gufan злободневной ссылкой поделился: http://pe3yc.livejournal.com/807526.html.

Сначала по полочкам этот пример. Есть некий пользователь — в данном случае pe3yc, а в общем — генератор контента, тот, кто стоит в самом низу "информационной цепи" (полный аналог пищевой цепи), их данные потребляют всевозможные информационные сущности от тех же обучающихся или форвардящих друг другу ссылки людей до сложных перерабатывающих консументов вроде порталов и мэшапов. Без генераторов контента жизни нет, весь вебдваноль вымирает. Есть некая блогоплатформа - в данном случае LiveInternet, в общем — чистый консумент, предоставляющий сервис и тем привлекающий генераторов контента, которые этот ресурс после этого, что называется, и "делают". Эта платформа создаёт полное зеркало генерируемого пользователем потока данных, зеркало кешируемое, исходным пользователем ненастраиваемое и воспринимаемое на вторичной платформе как рядовой член сообщества. Всё, конфликт налицо, ссылка на возмущённое обращение автора выше.

Важный момент — речь идёт не о краже какой-то закопирайченной информации, а именно о фальсификации айдентити (забавно, что именно это слово использует сам автор в комментах). Сам по себе поток (в данном случае в виде RSS) открыт на чтение всем без ограничений.

Что может пойти не так?Collapse )

Мораль: если пользователь не "конечный", то надо очень осторожно обращаться с его потоком данных и не отчуждать его.

Monday, June 30, 2008

5:08PM - Smart Screenshots

В компанию к так понравившемуся вам антипингу предлагаю бесплатно ещё одну идею полезной утилиты: Smart Screenshots.

Скриншоты сейчас умеет снимать практически любая система, разве что со встроенными ограничениями из-за медиа-паранойи. Однако, как ни крути, а результат всегда получается один - картинка. Я понимаю, когда делается скриншот того, что по природе своей является набором пикселей, но довольно часто это не так. Скриншот программы должна быть возможность сделать в виде  чего-то XUL-оподобного или хотя бы SVG-подобного, чтобы и текст текстом, и цвет области цветом области, и ссылки ссылками.

Реализовать это можно по-разному, начиная от прямого опроса приложений с просьбами отдать информацию об объектах и кончая трейсингом с распознаванием текста.

Sunday, June 29, 2008

7:03PM - Все беды от интернета

Все беды от этого вашего интернета! Поднимал с паркета лановский провод - загнал себе под ноготь сантиметровую занозу...

Только что сделал запрос планировщику общественного транспорта, хотел узнать, как мне завтра утром ехать в одно незнакомое место. Скриншота не будет в целях конспирации, перескажу словами, а вы уж поверьте. Планировщик, подумав, посоветовал мне дойти пешком через два моста до самой дальней остановки в городе (это четыре часа ходьбы), там сесть на автобус, вернуться им в центр, выйти у вокзала, мимо которого я уже проходил, и оттуда пойти куда мне нужно опять-таки пешком (ещё полчаса). Удивительная логика!

Очень хорошая метафора типичной ICT-архитектуры.

ЗЫ: А поеду я на велосипеде. Тоже архи-символично!

Wednesday, June 25, 2008

11:08AM - Sequence is overrated

Следование, повторение, ветвление. Наследование, инкапсуляция, полиморфизм. Православие, самодержавие, народность. Свобода, равенство, братство. Пришёл, увидел, победил. Где-то на очень глубоком уровне заложена в человека тяга к сведению всего к Трём Пафосным Словам (по-научному, гендиатрис).

Во времена моей молодости теоретики программирования, почитавшие себя практиками (крепкая юношеская память подсказывает одно из имён - некий В.Ф. Очков, гугл чек подтверждает), рассказывали нам со страниц книг и журналов о том, что такое компьютер и куды его программировать. В числе прочего они повторяли тезис о трёх столпах теории алгоритмов: следовании, повторении и ветвлении - ими, мол, можно сделать всё, а без них - ничего. Следование - это возможность программиста указать, что сначала выполняется А, а потом Б, ветвление - возможность выбора между А и Б по результатам другого вычисления, повторение - следование А за А, прерываемое определённым результатом выполняемого на каждой итерации вычисления. Эдсгер Дейкстра, которому вменяли в вину авторство этого тезиса, был мужиком умным и писал о многих других вещах: о рекурсии, скажем, об асинхронности, но это оставалось за бортом.

Тот же Очков уже подвергал сомнению необходимость повторения, сводя его к ветвлению и операторам перехода вверх (за такое следование Дейкстра прострелил бы ему коленку, ну да ладно). А я вот хочу пойти ещё дальше и заявить, что само следование - штука переоценённая и идейно устаревшая.

- Как же так? - спросите вы. А вот так. Большинству вычислений глубоко всё равно, когда они происходят и где, а те, кому не всё равно, могут быть приведены к более удобному виду (то есть такому, где последовательность будет выводится автоматически транслятором, а не задаваться в явном виде). В декларативных языках следования вообще нет - всё равно, связывается ли символ со значением на первом шаге или на последнем, лишь бы в конце ответ был (определениям алгоритма Маркова и Колмогорова это не противоречит). В функциональных языках популярна ленивость, и этим всё сказано. В императивных тут и там используются всякие futures и promises - в той же Яве есть возможность вместо немедленного вычисления создать объект, который пообещает когда-то в будущем это вычисление закончить и дать ответ. В современном мире программирование почти всегда распределённое, а следование в этой парадигме вообще неопределимо. Да и зачем оно? Разницы нет, а если нет, то зачем платить больше заставлять программиста об этом думать?

ЗЫ: Мысль для медитации продвинутым читателям: рекурсивное ветвление принципиально неосуществимо в системе жадных вычислений.

Tuesday, June 24, 2008

11:47AM - О пауках

Loxosceles reclusa

о паукахCollapse )

Navigate: (Previous 20 entries)