13-я КОМНАТА: Командная игра
Автор: Илья Щуров Voyager
Вокруг среднего образования сломано столько копий, что хватило бы на несколько античных армий. Нужно ли школьникам уметь решать дифференциальные уравнения? Не пора ли ставить в кабинеты информатики Linux? Является ли преподавание дарвиновской теории эволюции нарушением права на свободу совести? Делать курс истории религий обязательным или факультативным? Однозначных ответов нет — мнений здесь слишком много, и привести их к общему знаменателю вряд ли удастся.
Тем не менее один недостаток нашей средней школы мне кажется очевидным. В ней не учат одной вещи, очень важной в современном мире: умению работать в команде. Не учат делать что-то сообща, обмениваться информацией и согласовывать свои действия с другими. Устройство школьного обучения предполагает только «вертикальные» отношения учитель-ученик, практически забывая про «горизонтальные» связи между самими школьниками. Если какое-то взаимодействие между ними и происходит, то оно обычно сводится к банальному списыванию— и, естественно, не только не поощряется, но даже наказывается (по крайней мере, официально). Словосочетание «коллективное творчество» имеет в школе однозначно негативный оттенок. Исключения есть, но они остаются исключениями.
В общем-то, в таком положении дел нет ничего удивительного, ибо одна из главных задач этой системы— удостовериться, что конкретный учащийся овладел некоторой суммой знаний и навыков, и выдать ему соответствующую бумажку. А когда происходит какая-то совместная работа, совершенно непонятно, как ее оценивать. Учитывая низкую степень мотивировки со стороны большинства школьников, становится ясно, что любой командный проект, предусмотренный учебным планом, будет выполняться одним, наиболее способным или ответственным учеником— а остальные просто «примажутся» к результату. Сделать так, чтобы работали все, — непростая (если вообще разрешимая) задача, которой проще не заниматься.
К счастью, так считают далеко не все: разные люди предпринимают разные попытки ее решения. Осенью я писал о том, как энтузиасты в США экспериментируют с использованием различных инструментов коллективной работы (в первую очередь блогов и вики-сайтов) в средней школе (см. «КТ» #615, «Образование будущего»). Тогда я посетовал на отсутствие аналогичных попыток в наших краях, ожидая получить опровергающие этот тезис отзывы. Таковых не последовало. Тем не менее тезис все-таки оказался ошибочным— как я узнал позднее, на конференции «Открытый софт в высшей школе» в Переславле-Залесском.
В качестве «контрпримера» можно привести проект Letopisi.Ru, созданный при поддержке Intel и «Транстелеком». Он представляет собой своеобразную «маленькую википедию», посвященную происходящим на наших глазах историческим событиям в небольших городках и деревнях России и наполняемую совместными усилиями школьников, студентов и преподавателей. Инициаторы надеются, что участие в проекте научит не только пользоваться wiki-разметкой, но и разовьет терпимость к действиям и мнениям коллег, а также способность к творчеству.
Проект только открылся, и делать какие-то выводы еще рано. Пока можно сказать лишь одно: работа на сайте идет, и, несмотря на неизбежные трудности (начиная от вандализма и заканчивая непониманием многими участниками некоторых концепций wiki), приносит определенные результаты. На базе «Летописей» уже проводятся соревнования между школьными командами по написанию коллективных текстов. Здесь уже можно учить детей работать вместе.
Впрочем, не стоит забывать, что wiki или любые другие технологии были и остаются лишь инструментом, результат работы которого всецело зависит от того, в чьих руках он находится. Тем отраднее видеть среди участников «Летописей» студентов педагогических вузов. Их заинтересованность позволяет надеяться, что школьное образование будет пусть медленно, но все-таки двигаться вперед. Несмотря ни на что. Потому что главное— это не принятые учебные планы и официально одобренные программы, а конкретные люди.
НОВОСТИ
То, не знаю что
Среди компьютерных гигантов слабостью к вирусному маркетингу до сих пор славилась компания Apple. Но под конец зимы блеснуть в этом виде боевых искусств сумела и Microsoft — буквально взбудоражившая Сеть таинственным проектом Origami. За последние две недели не осталось, пожалуй, ни одного новостного ресурса и форума, где не прозвучало бы это имя, но и по сей день об Origami ничего толком не известно.
Началось все со случайно обнаруженного на просторах Сети сайта origamiproject.com, информация о котором выдавала его принадлежность перу дизайнеров Microsoft. Сайт не содержит ничего, кроме флэш-ролика, посвященного оставшемуся за кадром предмету, побывавшему в дюжине различных мест (от подземки до горных вершин). Текст на заглавной страничке содержит подсказку: речь идет о мобильном компьютере, работающем под управлением Windows XP. Почти одновременно и столь же «случайно» в Интернете всплыло старое видео, якобы утекшее из Microsoft и запечатлевшее прототип такого устройства. Надо ли говорить, каких высот достиг полет фантазии в следующие дни? После того как шумиха достигла апогея, пресс-служба компании подтвердила, что проект Origami существует и имеет непосредственное отношение к Microsoft, но не обнародовала никаких дополнительных деталей, отложив это до девятого марта. Учитывая, что как раз девятого открывается выставка CeBIT, можно предположить, что речь действительно идет о важном продукте, представлять который, возможно, будет сам Билл Гейтс (отбывшая в Ганновер часть редакции «КТ», конечно, постарается не пропустить это событие).
Что именно покажут публике, так и остается секретом. По словам представителя Microsoft, вышеупомянутый флэш-ролик давно устарел и судить по нему о загадочном продукте не стоит. Но если верить слухам, якобы основанным на утечках информации из недр софтверного гиганта, Origami, при габаритах небольшой книжицы, будет сравним по функциональности с маломощным ПК. «Таблетка» обеспечит своего владельца доступом в Сеть, средствами для работы с документами и, конечно, развлечениями. От одного заряда аккумуляторов чудо-машина сможет работать целый день. Microsoft, верная своим принципам, вероятно, возложила бремя производства устройства на партнеров, а сама занялась программным обеспечением и проработкой общей идеи. По тем же слухам, Origami появится в продаже уже этой весной и при цене около пятисот долларов составит достойную конкуренцию таким хитам, как Sony PSP и Apple iPod. — Е.З.
Дэнс, дэнс, дэнс
Закрытый слет TechFest, ежегодно проводимый в редмондской штаб-квартире Microsoft, на несколько дней объединяет представителей различных исследовательских лабораторий корпорации. Среди полутора сотен проектов, представленных на суд инсайдеров компании в этом году, была любопытная система Step UI.
Ее авторы справедливо рассудили, что при работе за компьютером нагрузка на разные части тела распределяется неравномерно: если руки находятся в постоянном напряжении, то нижние конечности лишь покорно отбывают свой «срок» под столом. Учитывая, что избыточный вес и прочие неприятности, вызванные сидячим образом жизни, давно стали национальной проблемой в США, этот перекос неплохо было бы исправить. Нет ничего проще: разработчики Step UI взяли электронный мат, используемый для игры в Dance Dance Revolution (виртуальные пляски от Konami), и написали софт, учитывающий специфику альтернативного управления. Первыми программами, адаптированными под новые условия, стали почтовый клиент StepMail и электронный фотоальбом StepPhoto. Для работы с ними нужно наступать ногами на одну из шести зон коврика, отдавая тем самым желаемые команды. Например, чтобы открыть электронное письмо в StepMail, необходимо топнуть по расположенной в правом верхнем углу площадке. Думается, что в случае массового распространения технологии перед разработчиками остро встанет задача укрепления рабочей панели Step UI. Пользователи, получившие возможность буквально ногами давить мусорную корреспонденцию, запросто способны войти в раж и всю свою безмерную любовь к спамерам выместить на ни в чем неповинном электронном коврике.
Конечно, Step UI рассматривается лишь как дополнение к традиционным способам взаимодействия человека и компьютера, хотя людям с ограниченными возможностями он наверняка окажет неоценимую помощь. Ну а периодическое использование подобного интерфейса в организациях поможет работникам поддерживать тонус и оставаться в форме на протяжении всего дня. Если, конечно, они не сочтут оскорбительным приглашение на танец от собственного почтовика. — А.З.
Четвертьгрошовая мыльная опера
Не успели онлайновые бизнес-воротилы Yahoo и AOL начать борьбу со спамом путем взимания символической суммы за отправку электронной почты (см. «КТ» #626), как они сразу же стали мишенью для яростной критики. Коммерциализация электронной почты пришлась не по душе многим американским правозащитникам, которые сочли установленный тариф (от четверти до одного цента за письмо) отнюдь не копеечным.
Первой на войну за бесплатный e-mail поднялась общественная группа защиты гражданских прав MoveOn.org. В пламенном манифесте ее активист Адам Грин (adam Green) заклеймил позором попытки брать деньги с отправителей при полном отсутствии гарантии доставки посланий адресату. По его мнению, нынешняя идея «поставить почту на бабки» — лишь первый шажок на скользком пути, ведущем к подрыву свободы слова в Интернете. Под флагом борьбы с коммерциализацией веб-почты пылкому общественнику удалось сплотить более полусотни влиятельных организаций, в том числе Фонд электронного фронтира (EFF), съевший собаку на отстаивании прав интернетчиков. Любопытно, что эта коалиция объединила представителей столь разных по настрою выразителей общественного мнения, как Национальное общество гуманистов и Ассоциация владельцев огнестрельного оружия. Сказать свое слово в защиту бесплатной почты может любой желающий: для этого борцы учредили веб-сайт с издевательским названием «Дорогая aOL», на котором полным ходом идет сбор подписей протестующих граждан.
Впрочем, заботясь на словах об интересах рядовых американцев, «почтовые бессребреники» не забывают и о собственной выгоде. Не секрет, что для влияния на умы интернетчиков многие общественные организации из «списка Грина» периодически рассылают свои «агитки» по миллионам адресов, так что почтовые сборы больно ударили бы их по карману. Стараясь по возможности не дразнить гусей, пресс-служба AOL поспешила заявить, что новые почтовые порядки никоим образом не коснутся писем, рассылаемых общественными организациями и благотворительными фондами. Впрочем, непримиримые активисты на этом не успокоились. «Где вы видели компанию, которая предоставляет одни и те же услуги платно и задарма? — восклицает один из них. — Ясно как день, что качество бесплатного сервиса будет заметно ниже».
Меж тем Васька слушает, да ест: несмотря на общественное негодование инициаторы платной e-mail не намереваются откладывать свои планы в долгий ящик. По заявлениям «яховцев», в тестирование их новая почта попадет через несколько месяцев, а шустрые «аоловцы» обещают спустить свое детище на воду уже в марте. Окупятся ли потраченные ими нервы звонкой монетой, покажет время. — Д.К.
Программирование на женском
Неравнодушие Билла Гейтса к домохозяйкам известно давно. Еще во времена проектирования Windows 95 эта категория потенциальных пользователей стала одной из самых желанных для Microsoft. С тех пор минуло немало лет, но разработчики корпорации по-прежнему следуют «генеральным курсом». А поскольку домохозяйки развитых стран ныне и сами заткнут за пояс некоторых хакеров, команда Гейтса решила переключиться на развивающиеся рынки, где скудное использование возможностей ПК зачастую связано с неграмотностью подавляющего большинства жителей.
К подобным странам относится и густонаселенная Индия. Несмотря на многочисленные технопарки, возводимые здесь в последние годы, огромная часть населения даже не знает алфавита. Именно для таких людей одна из исследовательских лабораторий Microsoft, базирующаяся в Индии, разрабатывает ПО, позволяющее неграмотным людям получать доступ к необходимой информации. Поскольку, здешним жителям в большинстве своем не до развлечений, новинка в первую очередь нацелена на содействие в поиске работы. Софт полностью свободен от текста и общается с пользователем при помощи картинок, анимации и голосовых сообщений. Система была представлена на внутреннем смотре технологий Microsoft Research TechFest в числе других перспективных идей.
При работе над проектом, отмечают авторы, возникло немало трудностей. Например, необходимо было подобрать образы, которые бы правильно воспринимались целевой аудиторией. Учитывая очевидные различия в менталитете разработчиков и потенциальных пользователей, это не такая уж простая задача. Например, фотография горы немытой посуды (поначалу использовавшаяся для обозначения вакансии посудомойки) приводила соискательниц работы в отчаяние — им казалось, что именно эти авгиевы конюшни им и придется разгребать. А вот схематичный рисунок воспринимается гораздо проще. Чтобы привлечь внимание к новинке, был даже отснят клип в «болливудском» духе. Видеоролик повествует об индианке, измученной работой по дому и непониманием мужа, которая самостоятельно находит работу с помощью компьютера.
Красивая на первый взгляд идея имеет серьезный изъян: в Индии позволить себе компьютер может лишь узкая прослойка граждан. Впрочем, остается надежда на общедоступные публичные терминалы. И возможно, скоро к этим оплотам цивилизации будут спешить в поисках лучшей жизни индийские дамы, уставшие от штопки сари и мытья слонов. — А.З.
Чип-микрофон — новое слово «Акустики»
Американская компания-стартап Akustica (Питсбург) объявила о начале продаж нового продукта — одночипового цифрового микрофона, изготовляемого с помощью стандартных процессов КМОП-технологии. Продукт ориентирован главным образом на применение в персональных компьютерах и бытовых устройствах мобильной связи, а его небольшая цена, по свидетельству фирмы-разработчика, вполне может сделать чип-микрофоны, встроенные непосредственно в дисплей, обычной вещью уже в ближайшем будущем.
Подавляющее большинство нынешних микрофонов, используемых в бытовых цифровых устройствах (динамические, конденсаторные), построены на основе традиционной аналоговой технологии. Новые цифровые версии микрофонов изготовляются на основе MEMS (микроэлектромеханических систем) с применением тех же литографических процессов, что свойственны производству микросхем, но с добавлением подвижных микроскопических деталей. Однако для этого требуются особые, специально подстроенные процессы производства, из-за чего MEMS-микрофоны до последнего времени получались слишком дорогими.
Главное достоинство чипа-микрофона AKU2000 фирмы Akustica в том, что его удалось сделать относительно простым и дешевым (в роли мембраны выступает один из слоев металлизации микросхемы). В отличие от других MEMS-микрофонов, обычно имеющих двухчиповую конфигурацию из-за размещения сигнального процессора в другой микросхеме, AKU2000 упакован в один чип размером 4x4 миллиметра. Он изготовляется с помощью стандартной КМОП-технологии, что позволяет компании-разработчику (не имеющей собственных производственных мощностей) размещать заказ практически на любой подходящей по профилю фабрике.
Правда, главные надежды на успех своего продукта Akustica связывает с использованием матриц из нескольких микрофонов. Массивы микрофонов с близкими характеристиками ныне рассматриваются как удобное и сравнительно дешевое средство повышения качества звука и подавления фоновых шумов. Корпорация Intel, скажем, работает с микрофонными матрицами для ноутбуков с той поры, как приступила к разработке спецификаций HD Audio. Кроме того, вместе с ростом интереса к технологиям VoIP массивы микрофонов рассматриваются как одно из перспективных направлений для улучшения качества VoIP-звонков, особенно с мобильного аппарата на ходу. И вообще, недорогим и качественным микрофонам с эффективным шумоподавлением найдется куча дел. И если чипам AKU2000, чья стартовая оптовая цена составляет 3,87 доллара, удастся своевременно снижать себестоимость, то, по оценкам аналитиков, их может ожидать блестящее будущее. — Б.К.
Отобразим на троих?
«Заверните мне, пожалуйста, три во-он тех монитора». Согласитесь, услышать подобную фразу в салоне компьютерной техники доводится нечасто. Впрочем, не исключено, что ситуация изменится с выпуском новинки от компании Matrox — коннектора TripleHead2Go. Это устройство призвано заметно расширить «кругозор» компьютерных пользователей: подключив к коннектору три поставленных в ряд 19-дюймовых монитора, можно получить иллюзию работы с одним исполинским дисплеем с 45-дюймовой диагональю.
«Трехголовая» коробочка размером с компьютерную мышь вставляется в VGA-разъем видеокарты и распознается Windows как один-единственный дисплей разрешением до 3840x1024. Новое устройство использует принцип, заложенный в его предшественнике — выпущенном в ноябре прошлого года DualHead2Go, который управляется с двумя мониторами. Правда, в отличие от «старшего брата» нынешний гаджет куда более капризен в выборе аппаратуры: его поддержка «по зубам» лишь старшим моделям видеокарт ATI и nVidia.
Как уверяют производители, несомненную пользу от выхода на «большой экран» получат дизайнеры, проектировщики, а также геймеры, которые смогут как следует пустить в ход свое периферийное зрение. Правда, список игр, поддерживающих «широкоэкранный» режим, пока невелик (Quake IV, Age of Empires и автосимулятор GTR), да и осилить их при максимальном разрешении сможет далеко не каждый домашний PC. Как ожидается, на прилавках новинка появится в апреле по цене около 300 долларов. Увы, пара дополнительных мониторов, а также услуги по расширению полезной площади компьютерного стола в эту сумму не входят. — Д.К.
Конверсия наоборот
Если в 1990-е годы, ввиду окончания холодной войны, одной из актуальнейших тем была конверсия, то есть адаптация и передача военных технологий на нужды мирного созидания, то теперь в публикациях научно-технической прессы все чаще можно найти рассказы о «конверсии наоборот». Иначе говоря, о том, как коммерческие или специальные сугубо мирные технологии с успехом внедряются для усиления борьбы с терроризмом и вообще с преступностью во всех ее проявлениях.
Одна из недавних новостей подобного рода — передача лазерной фототехнологии, разработанной в NASA для анализа внешних повреждений шаттлов, на нужды криминалистов ФБР. Прибор, сконструированный в Космическом центре им. Кеннеди (Флорида), носит длинное название «Устройство лазерного измерения и масштабирования для фотоизображений» (LSMDPI). Он был создан для помощи специалистам, испытывавшим затруднения при оценке снимков повреждений внешнего топливного бака космического челнока в результате ураганов и града.
Прибор представляет собой коробочку весом около 200 г, питающуюся от одной батарейки и крепящуюся к штативу фотокамеры. Два лазерных источника, находящиеся на расстоянии одного дюйма друг от друга, одновременно со срабатыванием затвора посылают параллельные лучи, добавляя в фотографию контрольные точки масштабирования (эффективно на расстоянии 70 м до объекта съемки). Затем фотографии обрабатываются специальной программой, которая по контрольным точкам лазера выстраивает шкалу реальных размеров всех объектов на картинке.
Когда специалисты ФБР увидели этот прибор в действии, он сразу попал на первое место в списке технологий NASA, потенциально полезных в работе криминалистов. При оценке фотографий с места преступления бывает чрезвычайно важно знать размеры пятен крови, других следов и улик, оставленных преступниками, а также соотношений размеров между всеми элементами сцены преступления. Компания ASRC Aerospace, выпускающая оборудование для NASA, уже адаптировала и начала изготавливать LSMDPI для нужд криминалистов. — Б.К.
Что в имени твоем?
Зачастую очень трудно предвидеть, как могут пригодиться те или иные научные разработки. На первый взгляд бесполезные, спустя некоторое время они вдруг помогают решать самые насущные житейские проблемы.
Когда в 2002 году Грег Кондрак (Greg Kondrak) защищал диссертацию по компьютерным наукам в университете Торонто, у него были проблемы. Оппоненты считали, что разработанная им программа ALINE, которая ищет во всех языках слова с близким звучанием, никому не нужна.
Но прошло несколько лет, и Управление по контролю за продуктами и лекарствами США (FDA), обеспокоенное тем, что, по его данным, почти полтора миллиона американцев ежегодно страдают от ошибок при приеме лекарств, решило навести в их названиях порядок. Попробуйте, например, при приступе стенокардии не перепутать Trinitrin и Trinigyn, а ведь ошибка легко может стать фатальной. Фармацевтические же компании в рекламных целях постоянно выдумывают новые звучные названия практически одним и тем же препаратам, коих уже зарегистрировано больше четырех тысяч.
Тут-то и пригодилась «бесполезная» программа ALINE. На ее основе был разработан пакет, который сравнивает звучание и написание новых лекарств с уже известными. И если находится внешне схожее название или название с похожим звучанием, то разрешение не выдается. По данным FDA, это уже позволило снизить количество ошибок при приеме лекарств на десять процентов. — Г.А.
Ничего не сказала рыбка
Идея полного контроля за мыслями и поступками человека или животных всегда представлялась чрезвычайно заманчивой людям с авторитарным складом ума. Исследования в этом направлении ведутся давно, и если применительно к опытам на людях этика еще более или менее срабатывает, то в отношении животных — вплоть до человекообразных обезьян — царит вседозволенность. Глубокая имплантация электродов в мозг шимпанзе или крыс считается обычным делом. Особенно когда речь идет о дистанционном управлении животным, да еще на щедрые деньги военных.
На недавней научной конференции Ocean Sciences Meeting, состоявшейся в Гонолулу (Гавайи), один из докладов был посвящен имплантации нейроэлектродов в мозг акул. Занимающиеся этой работой биологи из Бостонского университета во главе с Йелле Атема (Jelle Atema) полагают, что таким путем они смогут больше узнать о редкостном обонятельном аппарате акул и об их удивительной способности чувствовать малейшие изменения электрических полей. Большого секрета из того, что эксперименты финансирует DARPA, Агентство передовых военных исследований США, не делается, а Пентагон здесь интересует совершенно конкретная задача — научиться дистанционно управлять акулами, превращая их в практически невидимых противнику шпионов, способных незаметно следовать за кораблями и проникать в строго охраняемые зоны.
Подобно хорошо известным опытам с крысами, биологи ныне умеют имплантировать нейроэлектроды в обонятельный центр рыб, так что, подавая электросигнал через правый или левый электрод, можно заставить повернуть рыбу направо или налево. Однако в планах DARPA эксперименты в лабораторных бассейнах — уже пройденный этап. Как говорит курирующий этот проект Уолтер Гомес (Walter Gomes), сотрудник Центра ВМС по подводным вооружениям в Ньюпорте, следующим шагом станет имплантация нейроустройства в мозг голубых акул и выпуск их на волю у берегов Флориды.
Правда, радиосигналы, которые ученые используют для манипуляций движениями рыбы в лаборатории, не способны проникнуть в толщу океанских вод. Поэтому инженеры ВМС планируют связываться с акулами при помощи сонаров. По словам Гомеса, в окрестностях Флориды у военных моряков в достатке акустических сигнальных мачт, подходящих для надежной связи кораблей с акулами на расстоянии до 300 км. Чтобы сонарные приемники, навешиваемые на акул, не слишком мешали движениям, им придали форму рыб-прилипал, благодаря чему существенно снижается лобовое сопротивление аппаратуры.
По мнению военных, дистанционно управляемые акулы практически по всем параметрам могут превосходить роботов подводного наблюдения — ведь рыбы совершенно бесшумны в воде да еще сами себя кормят. Ну а что думают об этом акулы, никого не интересует. Да и мозги у них для «думанья» не приспособлены. По крайней мере, на взгляд военного человека. — Б.К.
Как рождаются звезды
Любопытное исследование провели социологи из Колумбийского университета в Нью-Йорке с помощью своего сайта musiclab.columbia.edu. Работа, впрочем, еще продолжается, и каждый может в ней поучаствовать. Исследование показало, как сильно мнение публики влияет на наш собственный вкус и как прихотлива судьба любого артиста.
На сайте лаборатории после регистрации участнику эксперимента предлагается выбрать любую из сорока восьми песен малоизвестных американских групп. После прослушивания отрывка и оценки композиции ее можно бесплатно скачать. Часть добровольцев видит только название группы и песни, а другая часть случайно разбита на восемь «миров», и можно увидеть, сколько раз уже скачивали каждую песню люди из вашего «мира». Таким образом, в эксперименте можно сравнить выбор, основанный только на собственном мнении, с выбором, учитывающим мнение публики.
Оказалось, что чужое мнение сильно влияет на наше собственное. Хорошо прослеживается эффект «снежного кома» — посетители выше оценивают и чаще скачивают те песни, которые уже завоевали популярность. Однако это не значит, что в итоге наверх вылезают бездарности. В конце концов, все хиты восьми миров высоко оценивались и независимыми слушателями, а окончательный рейтинг везде получился похожим. Но важную роль играет и случай. Лучший хит одного из миров не поднялся выше нижней десятки в других. К тому же постепенно рейтинг всех песен и лидеры скачивания меняются, постоянного «царя горы» не возникает.
Пока авторы немногое могут посоветовать начинающим исполнителям, да и людям многих других профессий, доход в которых зависит от известности. Если вас никто не знает, это не говорит о том, что у вас плохая музыка, но даже если ваша музыка прекрасна, то вовсе не обязательно вы станете звездой. В целом динамика рождения звезд и формирования вкусов по-прежнему остается загадкой. Впрочем, исследование продолжается, и, возможно, вскоре мы узнаем еще что-нибудь интересное. — Г.А.
Керамический кулер
Многообещающее открытие сделала группа ученых из университетов Кембриджа и Кренфильда (Великобритания). В тонкой пленке титаната-цирконата свинца PbZr0.95Ti0.05O3 они обнаружили гигантский электрокалорический эффект, который более чем в сто раз сильнее обычного. Эту находку исследователи надеются использовать для эффективного охлаждения компьютерных чипов.
Электрокалорический эффект заключается в охлаждении некоторых материалов под действием электрического поля (или в нагреве, в зависимости от направления поля). Он является антиподом более известного пироэлектрического эффекта, при котором нагрев или охлаждение материала вызывает на его поверхности электрическую разность потенциалов. Такими свойствами обладают некоторые монокристаллы с определенными типами симметрии кристаллической решетки, полимеры и керамики. В хорошем пироэлектрике одновременно наблюдается сильный электрокалорический эффект и наоборот (плюс все пироэлектрики являются и пьезоэлектриками).
Пироэлектрики широко применяются в чувствительных приемниках инфракрасного излучения. Свет нагревает тонкий слой материала, а возникающее при этом электрическое поле регистрируется электронной схемой. Собственно, по этому поводу ученые и исследовали пленку из титаната-цирконата свинца. Этот твердый материал, в котором атомов циркония и титана приблизительно поровну, хорошо известен и широко используется, в том числе как пьезоэлектрик. Увеличив долю циркония, ученые с удивлением обнаружили, что полезные свойства материала резко усилились. Приложив к пленке толщиной в одну треть микрона напряжение 25 В, ее удалось охладить на целых 12 градусов. Механизм гигантского электрокалорического эффекта пока до конца не понятен. По всей видимости, он тесно связан с фазовыми переходами в материале.
Новый материал можно использовать для создания твердотельного теплового насоса, который, как считают ученые, будет гораздо эффективнее, чем иногда применяемые сегодня для охлаждения электроники полупроводниковые элементы Пельтье. В этой связи пироэлектрики активно изучались еще в пятидесятые-семидесятые годы прошлого века, но из-за слабости электрокалорического эффекта в известных тогда материалах от идеи пришлось отказаться. Насос можно использовать и «в обратном направлении» — для получения электроэнергии при малых перепадах температур.
К сожалению, новый материал лучше всего работает при температуре около 220 градусов Цельсия, и его трудно непосредственно применить для охлаждения электронных чипов. Но окрыленные успехом ученые активно взялись за поиски похожих материалов, которые будут лучше функционировать при комнатных температурах. — Г.А.
Еще один конец света
Их полку прибыло. После наблюдений за астероидом 2004 VD17 выяснилось, что отныне ему суждено быть самым опасным на данный момент небесным телом для землян. Просчитав путь малой планеты на век вперед, ученые обнаружили, что вероятность столкновения астероида с Землей 4 мая 2102 года составляет примерно 0,00063. По математическим меркам вроде бы и немного, но вполне достаточно, чтобы еще раз задуматься о «внешней угрозе». И в самом деле, речь идет не о шансах поскользнуться на неухоженной улице, а о судьбе целой планеты, которая у каждого из нас одна и к тому же общая.
Орбиту астероида высчитали достаточно надежно. После 475 дней наблюдения ошибки сведены к минимуму, а это означает, что резкого увеличения шансов на возможную катастрофу пока не предвидится, хотя и о снижении речи не идет. Людей разумным напоминаем о мизерной вероятности, поклонникам же фильма «Армагеддон» даем справку: в названный день глыба диаметром 580 м действительно может войти в атмосферу Земли на скорости 21,36 км/час, энергия взрыва составит около 15 Мт в известном эквиваленте. В 2104 году (ровно через два года) у астероида будет вторая попытка, но с шансами на столкновение на два порядка ниже. По широко известной Туринской шкале астероид заслужил два балла, и это всего лишь второй такой случай с начала поголовной постановки на учет всех небезопасных соседей Земли.
Другой возможный катаклизм того же рода ждет нас гораздо раньше, 13 апреля 2036 года. Под словом «возможный» подразумевается один шанс из 5560. Именно такова вероятность столкновения с Землей нашумевшего астероида Апофис (Apophis), которому до сей поры принадлежала пальма первенства в списке потенциально опасных для Земли камней с неба. На короткое время ему даже было присвоено 4 балла по той же Туринской шкале, но работа над ошибками в наблюдениях помогла снизить оценку до единицы (таблицу претендентов можно посмотреть на neo.jpl.nasa.gov/risk).
Так что из покушающихся на Землю астероидов пока некому даже «зачет» поставить. — А.Б.
Миллионерша Вики
Первое марта в нынешнем году принесло многотысячному племени онлайновых энциклопедистов не только долгожданное дыхание весны, но и общецеховой праздник. Шутка ли, в этот день англоязычная версия Википедии (en.wikipedia.org) отсчитала свою миллионную статью, став первой в мире энциклопедией, преодолевшей столь знаменательный рубеж! Кстати, с недавних пор количество официально зарегистрированных юзеров на сервере Википедии тоже стало выражаться семизначным числом, так что ныне многомудрая миcc Вики является дважды юбиляршей.
Предпраздничные мгновения стали одними из самых плодотворных в истории вики-движения: на вопрос «Кто хочет стать миллионером?» поднялся лес рук. Если в обычные дни скорость пополнения англоязычной копилки знаний равнялась одной статье в минуту, то в преддверии исторического рубежа «википедисты» работали с утроенной энергией. Как известно, героиней юбилейной, пятидесятитысячной статьи Ру.Википедии (см. «КТ» #620) стала станция московского метро «Международная». Любопытно, что в любви к железнодорожному транспорту англичанка Вики солидарна со своей русской тезкой: согласно «фотофинишу», миллионной оказалась заметка о железнодорожной станции Джорданхилл в Шотландии, обошедшая других претендентов.
Автор юбилейной статьи, википедист Nach0king, в миру известный как Эван Макдональд, признался (Evan Macdonald), что к энциклопедическим гуру он себя не относит: как-никак, взносы в кладовую разума делает нечасто, к тому же большинство из его откровений посвящены футболу и местным достопримечательностям. Впрочем, именно усилиями таких скромных работяг, приносящих соломинки в общий муравейник, и жива свободная энциклопедия. «Может быть, информация о неприметном полустанке в предместьях Глазго и не перевернет мир, но если она привлечет к проекту еще хотя бы одного человека, значит, я трудился не зря», — заметил Эван.
Впрочем, не «инглишем» единым жива Википедия: ныне копилка разума доступна на 125 языках. Правда, по части наполнения германская и французская Вики сильно отстают от своей англоязычной подруги (в них насчитывается «лишь» 365 и 250 тысяч статей). Так что чествовать следующего «вики-миллионера», по-видимому, предстоит нескоро. — Д.К.
НокДаун
Вот и дождались. NASA официально помахало ручкой одному из самых интересных проектов, которые готовились в начале тысячелетия. Зонд Dawn не полетит к Весте и Церере и не станет разбираться, почему два крупных астероида такие разные, хотя «допрос» этих свидетелей рождения нашей планетной системы казался столь важным. Заодно не отправятся в долгое космическое путешествие десятки тысяч имен тех энтузиастов, кто пожелал сохранить память о себе в недрах специального микрочипа, помещенного на борт зонда.
В 2001 году проект Dawn был выбран из 26 претендентов на участие в Discovery Program. В эту программу NASA планировалось включать недорогие разработки, нацеленные на запуск небольших космических аппаратов, как правило, для исследования нашей Солнечной системы. Пионером здесь был зонд NEAR, запущенный еще в 1996 году к астероиду Эрос. В конкурсном же отборе 2001 года, кроме Dawn, зеленый свет получил и проект Kepler. Этот аппарат (на рис.), вывод которого на орбиту вокруг Солнца намечен на 2008 год, должен целенаправленно искать планеты, похожие на Землю, возле других звезд. Должен, но… Погодок миссии Dawn, конечно, еще питает мечты о спасении, однако неофициальные слухи и о его скорой кончине все больше расползаются по Сети. Discovery Program — не самый важный приоритет для NASA в последние годы, и это, увы, тоже не открытие.
К чему искать жизнь так далеко, если главная задача Буша и его соплеменников состоит в скорейшем заселении Луны и Марса? Вот вам сразу две обитаемые планеты, под боком. Меж тем новости с Марса уже никаких эмоций не вызывают: ну еще один зонд на подлете, и что? Будем надеяться, Россия в ответном порыве не станет разводить на Луне кукурузу, а Китай — засевать рисовые плантации. — А.Б.
SMS на тот свет
Пожалуй, в некоторых компаниях полагают, что в наше время обычному человеку просто некуда и некому отправить SMS. Почти с любого рекламного плаката, из каждой рекламной паузы на радио и ТВ летит призыв отослать что-нибудь на короткий номер и узнать, получить и, главное, потратить что-нибудь несущественное без учета налогов.
Этого, конечно, мало. Что за радость, в самом деле, рассылать эсэмэски в пределах всего доступного трехмерного пространства? Такой плоский подход не к лицу обитателю Вселенной, который помнит о ее четырех измерениях. Ограниченность движения коротких сообщений вдоль оси времени решила сломить отечественная компания «Открытые коммуникации». Отныне любой продвинутый телефонописатель может послать SMS в будущее, упаковав его в виртуальную капсулу времени. Это не первый подобный опыт, и там, на Западе, прогрессивная часть человечества уже несколько лет вовсю переписывается с потомками. Хотите об этом поговорить? Нет ничего проще! Российская капсула нового образца позволит нашему покорителю времени смело объявить будущему все, что он думает обо всем, оформив это в виде голосового послания. Более того, в капсулу можно вложить даже файл размером до 512 Кбайт — в этих сверхвозможностях никакому западному аналогу с нами не сравниться.
Замечание для тех, кто не уверен в надежности такого рода посланий. На Земле существует сервис, который, возможно, позволит отправителю лично проконтролировать приход корреспонденции. В далекое будущее вас обещают доставить криогенные камеры.
P.S. Дабы сохранить целостность мироздания, сообщения в прошлое временно не принимаются. — А.Б.
Новости подготовили
Галактион Андреев [[email protected]]
Александр Бумагин [[email protected]]
Артем Захаров [[email protected]]
Евгений Золотов [[email protected]]
Бёрд Киви [[email protected]]
Денис Коновальчик [[email protected]]
Микрофишки
Google стало совсем тесно в рамках ПК, ищейка всея Интернета рвется на портативные устройства. Отныне доступ к новостному дайджесту от Google, недавно избавившемуся от статуса беты, оптимизирован и для мобильных телефонов. Сервис пока доступен только в США. — А.З.
Samsung представила первую цифровую камеру с HDMI-выходом — Digimax L85. Прогрессивный интерфейс позволит выводить снимки на оборудовании, поддерживающем стандарт высокой четкости, без потери качества. В остальном новинка соответствует уровню современного компакта: 8 мегапикселов, пятикратный оптический зум, съемка VGA-видео. Ориентировочная цена 500 долларов. — А.З.
Acme Systems выпустила компьютерный корпус в виде пингвиненка Тукса — бессменной эмблемы Linux. В Tux Case можно поместить плату Acme Fox (компактная встроенная Linux-система на RISC-процессоре ценой 130 евро), превратив культовую фигурку, например, в полноценный веб-сервер. Заказать один из тысячи изготовленных корпусов можно на сайте компании. — А.З.
Oki Electric на пару с Casio разработали 32-голосный генератор, предназначенный для рынков Бразилии, Индии, Китая и России. Чип учитывает специфику национальных инструментов и по задумке должен выдавать звук, гораздо более приятный для уха жителя конкретной страны. Среди демонстрационных мелодий, выложенных на сайте разработчика, есть и знаменитая «Калинка» (которая вопреки распространенному мнению вовсе не является народной). — А.З.
Британская комиссия по надзору за рекламой запретила прокат рекламных роликов серии игр Call of Duty 2 компании Activision. В клипах, вызвавших неудовольствие комиссии, показан предварительно отрендеренный геймплей с гораздо лучшим качеством, чем то, которое может быть достигнуто в реальной игре. — Т.Б.
Руководство канадского университета Лэйкхед (провинция Онтарио) объявило, что не будет разворачивать на своей территории WiFi-сеть, так как опасается отрицательного влияния электромагнитного излучения на здоровье студентов и сотрудников. Студенческий совет протестует, полагая, что вуз просто экономит деньги. — Т.Б.
Ультразвуковой отпугиватель хулиганствующих подростков инженера Говарда Степлтона (Howard Stapleton, см. «КТ» #617) из узкоспециального изобретения превращается в массовый продукт. Компанию Степлтона, производящую две сотни «москитов» в месяц (по цене около тысячи долларов), буквально затопила волна заказов. К устройству проявляют интерес не только владельцы частных бизнесов, но и службы охраны порядка и даже учебные заведения, планирующие интегрировать «москит» с детектором дыма и таким образом положить конец курению в школьных туалетах. — А.Л.
С 1 апреля в Японии будет запрещена продажа через розничные сети примерно полутысячи наименований различных электронных устройств (телевизоров, аудиотехники и т. д.), произведенных до 2001 года. Новый закон, принятый после изменения процедур государственной сертификации, ставит под удар многих торговцев подержанной электроникой. Интересно, что перепродавать «неугодную» технику в частном порядке по-прежнему можно без ограничений. — Н.Я.
Новости: Небезопасны при любой скорости
Автор: Киви Берд
Исследовательская группа из Университета Карнеги Меллона (США) опубликовала новую аналитическую работу о потенциальных опасностях, которые представляют для авиационных перелетов сотовые телефоны и прочая электроника пассажиров. Главный вывод сводится к тому, что угрозы мобильных телефонов в настоящее время недооцениваются, и по крайней мере несколько серьезных происшествий последнего времени, происходивших при взлете-посадке на американских авиалиниях, могли быть следствием безалаберности пассажиров, нарушающих запреты и пытающихся звонить с борта самолета, который в это время выполняет сложный маневр.
Существенной частью исследования был «эксперимент», когда ученые по согласованию с TSA, Администрацией безопасности полетов, садились на случайно выбранные авиарейсы, имея в ручной клади аппаратуру прослушивания — широкополосную антенну и анализатор электромагнитного спектра. Регистрация радиосигналов на борту показала, что при каждом коммерческом полете по сотовому телефону звонят в среднем от одного до четырех пассажиров. Чаще всего это происходит во время посадки самолета, когда, судя по всему, у людей кончается терпение.
Как говорит Билл Стросс (Bill Strauss), эксперт по электромагнитной совместимости при Центре военно-морской авиации и один из соавторов отчета, используемые пассажирами устройства могут нарушать функционирование ключевых приборов в кабине пилотов, особенно приемников GPS, которые становятся все более важными для безопасной посадки. Стросс утверждает, что риски, порождаемые радиоизлучениями, на самом деле выше, чем принято считать. Хотя исследования в первую очередь были направлены на отслеживание сотовой связи, они также продемонстрировали, что и другое оборудование, используемое пассажирами на борту, например ноутбуки и игровые консоли, тоже излучает потенциально опасные для работы электроники самолета сигналы. На основе собранных материалов авторы отчета настоятельно рекомендуют, чтобы во время полета бортовые рекордеры, помимо прочего, отслеживали и регистрировали радиоизлучение на борту.
Вполне очевидно, что это исследование, проведенное группой авторитетных экспертов, добавит остроты дискуссиям, ведущимся вокруг сотовых телефонов в самолетах. Не далее как в июле прошлого года Федеральная комиссия по связи (FCC) предложила смягчить свой собственный запрет на использование мобильников в воздухе, введенный еще в 1991 году. Предполагалось, что с тех пор коммуникационные технологии шагнули далеко вперед и уже не представляют угрозы для безопасности полетов. Однако в нынешнем отчете Университета Карнеги Меллона констатируется, что снятие запрета на звонки с борта самолета — очень плохая идея, вместо которой предлагается нечто совершенно противоположное — оснащать экипажи специальными приборами для отслеживания работы нештатных электронных устройств на критически важных стадиях авиаполета.
Можно также напомнить, что «несвоевременные» предложения FCC были в штыки восприняты и рядом других государственных ведомств США, таких как ФБР и Управление внутренней безопасности (DHS). Правда, совсем по иной причине — для мобильных звонков с борта самолета труднее реализовать действующие в стране правила о перехвате и прослушивании сотовой связи. Оправдывая свою «реформаторскую» позицию, в FCC заверяют, что руководствуются в первую очередь интересами публики, которая очень бы хотела иметь нормальную мобильную связь и во время авиаперелетов. Но и на сей счет, как выясняется, нет однозначного мнения. Социологическое исследование, проведенное в прошлом году Национальной лигой потребителей США, показало, что в большинстве своем пассажиры хотели бы сохранить запрет на мобильную связь в самолетах, чтобы оградить себя от невыносимо болтливых попутчиков и не слышать отовсюду раздражающие звонки вызова.
Упомянутый отчет публикуется в мартовском номере журнала IEEE Spectrum.
Новости: Имеющий уши да услышит
Автор: Алексей Левин
Американская разведка еще за полгода до начала вторжения в Ирак точно знала, что эта страна не имеет оружия массового поражения и не располагает научными и индустриальными ресурсами, позволяющими начать его разработку и тем более производство. Об этом говорится в новой книге корреспондента газеты «Нью-Йорк Таймс» Джеймса Райзена «Состояние войны: секретная история ЦРУ и администрации Буша» (James Risen, State of War: The Secret History of the CIA and the Bush Administration), изданной в начале нынешнего года.
Сведения об отсутствии в Ираке ОМП были получены в результате сверхсекретной операции, осуществленной по инициативе заместителя директора ЦРУ Чарльза Алена (Charles Allen). Он решил прибегнуть к помощи живущих в США родственников иракских специалистов, которых ЦРУ подозревало в причастности к программам создания ядерных, химических и биологических вооружений. По сведениям Райзена, в операции согласились участвовать около тридцати американцев иракского происхождения. Эти люди в 2002 году съездили в Ирак якобы по чисто семейным делам и задали своим родичам интересующие разведку вопросы. По возвращении все они доложили, что иракские программы создания ОМП были аннулированы вскоре после поражения Хусейна в Кувейте и с тех пор не возобновлялись. Чарльз Аллен был убежден, что эти отчеты адекватно отражают состояние иракского военного потенциала, и пытался убедить своих начальников. Однако высшие руководители ЦРУ отказались принять в расчет эти сведения и даже не сообщили о них Белому Дому. В результате достоверная информация об отсутствии оружия массового поражения у режима Саддама Хусейна надолго оказалась похороненной в архивах ЦРУ.
Проведенная Алленом операция позволила точно выяснить историю иракских усилий по созданию атомной бомбы. Вплоть до начала 80-х годов масштабы иракских ядерных исследований были весьма скромными, а сами исследования не имели четко выраженного военного характера. Ирак располагал двумя небольшими реакторами советского и французского производства, сооруженными в Тувайте, к югу от Багдада. Там же французские специалисты строили для Ирака более мощный реактор «Таммуз-1», известный еще как «Осирак», который к лету 1981-го был близок к завершению.
В принципе, этот реактор мог иметь военную ценность. Одним из побочных продуктов реакций, идущих в урановом котле, является плутоний. Эта цепочка ядерных превращений хорошо известна: уран-238 поглощает нейтрон и превращается в крайне нестабильный уран-239. Ядро этого изотопа в результате бета-распада превращается в нептуний, а тот — в плутоний. Таким образом, реактор можно использовать для наработки плутония, однако извлечь этот элемент совсем непросто. Хотя французы воздержались от передачи Ираку технологий, позволяющих осуществлять эту операцию, правительство Израиля решило, что запуск «Осирака» представлял бы слишком большой риск. 7 июня практически готовый, но еще не заправленный ядерным топливом реактор был уничтожен израильской авиацией, в результате чего Ирак лишился даже теоретических шансов получить плутоний.
После ликвидации «Осирака» в Багдаде решили создавать мощности по производству ядерной взрывчатки только собственными силами и притом в режиме строжайшей секретности. Поскольку путь к бомбе с плутониевой начинкой был закрыт, оставалась бомба на уране. Как известно, для нее необходим редкий изотоп урана с атомным весом 235, поскольку только он способен вступать в цепную реакцию под действием тепловых нейтронов. Этот изотоп необходимо отделить от куда более распространенного в природе урана-238. Иракский физик Джаафар Диа Джафар (Ja’afar Dia Jafar) предложил использовать для этой цели электромагнитное разделение изотопов, которое впервые применили американцы в ходе осуществления Манхэттенского проекта.
Разработка этой технологии принадлежит знаменитому изобретателю циклотрона Эрнесту Лоуренсу, который в конце 1941 года предложил получать уран-235 именно таким способом. Фактически это просто техническое приложение идеи созданного еще в 1918 году масс-спектрографа, отчего и сам метод иногда называют масс-спектрографическим. Разогнанные в электрическом поле ионы попадают в постоянное магнитное поле, которое вынуждает их двигаться по круговым дугам. Радиус дуги пропорционален импульсу иона. Поскольку электрическое поле сообщает всем ионам практически одну и ту же кинетическую энергию, более легкие ионы приобретают меньший импульс, нежели тяжелые. Поэтому в магнитном поле они движутся по дуге меньшего радиуса, что и позволяет отделить их от ионов с большим весом.
Эта технология в принципе очень проста и, что самое главное, обеспечивает почти полное разделение изотопов. Во время Манхэттенского проекта в Клинтоне (штат Теннеси) был построен завод по электромагнитной сепарации урановых изотопов, который вышел на проектную мощность к началу 1945 года. Именно он стал источником урана для бомбы, сброшенной на Хиросиму (вторая бомба, уничтожившая Нагасаки, имела плутониевую взрывчатку). Однако масс-спектрографическая сепарация отличается крайне низкой производительностью и большим энергопотреблением. Поэтому после окончания Второй мировой войны американские специалисты отказались от нее в пользу газовой диффузии. В основе этой технологии лежит то обстоятельство, что смесь двух газов с различными атомными весами можно частично разделить на компоненты, если заставить газы диффундировать через пористую мембрану. Молекулы более легкого газа движутся быстрее и поэтому просачиваются через нее с большей скоростью. В результате за перегородкой увеличивается доля более легкого компонента. Правда, уран является металлом, поэтому для диффузионного разделения применяют его газообразное соединение с фтором, UF6. На практике для разделения близких по весу изотопов урана-235 и урана-238 используется каскадная сепарация, в ходе которой газовая смесь многократно диффундирует через сотни или даже тысячи мембран.
Поскольку технология электромагнитной сепарации была признана непрактичной, Комиссия по атомной энергии США сочла возможным ее рассекретить. Этим и воспользовались иракские инженеры, которые приобрели всю нужную информацию в американских библиотеках. На севере страны в тридцати километрах от Мосула был построен завод по электромагнитному разделению урановых изотопов, о существовании которого не подозревали ни западные разведки, ни МАГАТЭ. Сначала иракские физики использовали небольшие запасы урана, купленные у Италии и Бразилии. Однако вскоре выяснилось, что в окрестностях города Акашата имеются залежи фосфатных руд с высоким содержанием урана, которые и стали источником первичного сырья.
К началу 90-х годов в иракской ядерной программе было задействовано не менее восьми тысяч человек. Если бы ее удалось и дальше осуществлять прежними темпами, Ирак мог бы иметь атомную бомбу в 1992—93 году. К счастью, во время операции «Буря в пустыне» завод по обогащению урана был уничтожен авиацией, что и стало концом иракских ядерных разработок. Инспекторы МАГАТЭ реконструировали их историю и пришли к выводу, что после 1991 года у режима Хусейна не осталось ни малейших возможностей вновь заняться получением ядерной взрывчатки. Однако в 2002 году администрация Буша развернула пропагандистское наступление с целью доказать, что опасность появления иракской атомной бомбы не только не ликвидирована, но даже растет. Дальше всех зашел вице-президент Чейни, который открыто намекнул, что Ирак вернулся к реализации своих ядерных амбиций. В сентябре подчиненное Пентагону Управление оборонной разведки (Defense Intelligence Agency) подало по начальству засекреченный отчет, содержащий такой же вывод. Месяцем позже он вновь прозвучал в докладе разведслужб (так называемый National Intelligence Estimate) об иракском военном потенциале. Конечно, в этих условиях выводы Аллена и его аналитиков не могли не остаться гласом вопиющего в пустыне.
ТЕМА НОМЕРА: Однажды в Турине: Техника олимпийских достижений
Авторы: Тимофей Бахвалов, Сергей Вильянов
На протяжении шестнадцати дней февраля миллиарды людей на всей планете пристально следили за ХХ зимними Олимпийскими играми, воспринимая поражения и победы атлетов, как свои собственные. Но многие ли задумывались о том, какой титанический труд вложен в красивую картинку на экране и слаженную работу всех служб?
Олимпиада в том виде, к которому мы привыкли, немыслима без участия технологических партнеров и усилий тысяч технических специалистов самого различного профиля. Их работа чрезвычайно важна, но, к сожалению, всегда остается в тени олимпийских достижений…
Цена побед
Бюджет зимней Олимпиады в Турине составил 707 млн. евро, из которых на техническую инфраструктуру было потрачено 257 млн. Кое-что выделило правительство Италии, но большая часть средств — 420 млн. — получена от спонсоров. Впрочем, не стоит думать, что организаторы страдали альтруизмом: по официальным данным, заработки от продажи прав на телетрансляции, входных билетов и лицензий на выпуск сувенирной продукции превысили 974 млн. евро, так что чистая выручка от праздника спорта — целых 268 млн.
История большого бизнеса на спорте началась без малого век назад — в 1912 году, в Стокгольме, когда во время V Олимпиады впервые были проданы эксклюзивные права на выпуск открыток с фотографиями соревнований. Тогда же появились первые технические контракты — на осветительное, спортивное и иное оборудование. Потихоньку начали осваиваться и рекламные бюджеты: если в 1920 году в Антверпене реклама распространялась через программки и расписания мероприятий, то спустя четыре года в Париже она официально появилась и на спортивных аренах. Еще через четыре года Международный Олимпийский комитет (МОК) заключил первый «гранд-контракт» с Coca-Cola.
Поначалу рекламу давали все больше из альтруизма, но по мере роста популярности мероприятий за эксклюзивные контракты и право поддерживать Олимпийский спорт стали бороться весьма серьезные компании, что стало особенно заметным в 60-х годах прошлого столетия. Подливало масла в огонь и стремление МОК максимально ограничить количество рекламы на стадионах, дабы «противостоять коммерциализации спорта». Ситуация изменилась, когда пост президента МОК в 1980 году занял Хосе Антонио Самаранч, предложивший рассматривать спонсоров как основной источник финансирования Олимпиад.
В результате сегодня львиную долю доходов приносят не пожертвования правительств, а программы TOP (The Olympic Program), дающие TOP-спонсорам исключительные права на использование олимпийской символики для маркетинга своей продукции — прохладительных напитков, бытовой и электронной техники и т. д. Для справки: в период с 1985 по 1988 гг. TOP принесла 96 млн. долларов; с 1989 по 1992 гг. — 172 млн.; с 1993 по 1996 гг. — 376 млн.; с 1997 по 2000 гг. — 579 млн.; с 2001 по 2004 гг. — целых 600 млн. долларов.
Постоянными ТОР-спонсорами являются Eastman Kodak (с 1896 г.), Coca-Cola Company (с 1928 г.), Rank Xerox (с 1960 г.), IBM/Lenovo (с 1960 г.), Matsushita/Panasonic — (с 1987 г.), Visa International (с 1988 г.), Omega (с 1932 г.) и другие гиганты.
Теперь даже трудно представить, что первые Олимпиады проводились на частные пожертвования и сборы с продаж олимпийских почтовых марок, открыток и монет…
История
Техника входила в олимпийский быт постепенно, но без задержек. Так, в 1924 году Олимпийские игры впервые транслировались по радио, в 1932 году впервые был использован фотофиниш в беге на 100 метров. Игры в Берлине 1936 года показывались по телевидению, а о результатах соревнований тогда же начали сообщать телексом. Кстати, аппетиты организаторов впечатляли уже тогда: в 1956 году США и Европа даже бойкотировали Игры из-за дороговизны телетрансляций — Олимпиаду Старый и Новый свет увидели лишь кусками и в записи. Игры 1960 года в Риме впервые транслируются по ТВ полностью и на весь мир, а в 1964-м для сохранения результатов соревнований начали использовать компьютеры. Сегодня IT-инфраструктура отвечает абсолютно за все аспекты Игр — от аккредитации и транспортировки участников до фиксирования и публикации результатов соревнований, медицинской помощи и логистики.
Техническое обеспечение
До 2002 года олимпийскими информационными технологиями занималась IBM. Однако в конце века Голубой Гигант оступился: Олимпиада в Атланте 1996 года запомнилась серьезными проколами в ИТ-секторе — сбоили компьютеры комментаторов, отключались табло, были проблемы со статистикой и подсчетом результатов. Начиная с 2000 года вся олимпийская IT-инфраструктура была переведена на серверы, между которыми распределялась вычислительная нагрузка и дублировались данные.
В 2002 году на смену IBM пришла компания SchlumbergerSema. Ее усилиями на играх в Солт-Лейк-Сити с 200 тысячами участников и официальных лиц было задействовано более 4 тысяч десктопов, 150 Unix-серверов Sun Microsystems, 1,5 тысячи факсовых аппаратов, копиров и сканеров, более 1 тысячи принтеров и 2,5 тысячи информационных терминалов INFO2004. Сетевая инфраструктура базировалась на оптоволоконных каналах связи уровня T1 и T3, а программная платформа — на Hewlett-Packard OpenView и LANdesk и еще полусотне приложений. Комментаторское программное обеспечение было написано на Java и использовало СУБД Oracle 8, а обслуживали все вышеперечисленное 1350 специалистов и волонтеров.
Сегодня главным системным интегратором Олимпийских игр является голландская компания Atos Origin, в 2004 году купившая IT-подразделение SchlumbergerSema за 1,5 млрд. евро наличными. По контракту с МОК она будет обслуживать Олимпиады в Пекине 2008 года, Ванкувере 2010 года и Лондоне 2012 года.
Сегодня в компании работает более 46 тысяч сотрудников в 40 странах, а ее годовой оборот превышает 5 млрд. евро — как видим, спорт представляет собой очень и очень крупный бизнес. В команде по обслуживанию IT в Турине было занято 1,5 тысячи специалистов из Atos Origin, GE, Kyocera, Kodak, Panasonic, Samsung, Omega, LenovoTelecom Italia, TIM и Nortel, а также тысяча IT-волонтеров из 35 стран. Всего же, по данным Оргкомитета Игр, в организации Олимпиады и всех связанных с ней мероприятий участвовали 20 млн. добровольцев из всех стран мира.
Железо и система
Информационный центр Турина был готов к эксплуатации еще в начале октября прошлого года. За полсотни дней до зажжения олимпийского огня завершилось жесткое тестирование всех элементов центра в критических условиях — переизбытка данных, отказа коммуникационных каналов, сбоев в работе отдельных элементов, а общее время тестов превысило 100 тысяч часов[Разумеется, приводя эту цифру, организаторы не уточняют, что речь шла о суммарных временных затратах на каждый компонент системы, потому что иначе тесты пришлось бы начать одиннадцать лет назад. — С.В.].
Большую часть оборудования для олимпийского IT-парка поставила фирма Lenovo, купившая соответствующее подразделение IBM. Парк включал в себя 550 серверов на базе процессоров Intel под управлением Unix, 5650 десктопов, 800 ноутбуков и 700 принтеров.
В центре имиджинга в пресс-центре на технике Kodak за время Олимпиады прошло обработку около 3 млн. изображений — их можно было распечатать на высокопроизводительных принтерах Kodak 2100 и 1200i, а также переслать по Интернету с рабочих станций или напрямую с карт памяти.
В комментаторском центре и на олимпийских объектах Lenovo установила 1 тысячу десктопов с сенсорными панелями для быстрого доступа к информационной системе Commentator Information System.
Еще 800 публичных инфотерминалов позволяли почти миллиону зрителей непосредственно на спортивных объектах ознакомиться с результатами соревнований и биографией атлетов.
Для последних, а также членов олимпийских команд Lenovo открыла в олимпийских деревнях в Турине, Бардонекья и Сестриере семь комнат отдыха со 165 ноутбуками и десктопами, подключенными к Интернету. Занятно, что наибольшей популярностью комнаты пользовались среди американских, канадских и российских спортсменов. Телефонию обеспечивала компания Nortel, причем за связь отвечал коммуникационный сервер Nortel 1000 емкостью 140 тысяч номеров. Сеть была развернута на всей территории Олимпиады, включая шестнадцать спортивных объектов и олимпийские деревни.
Базовое ПО написано программистами Atos Origin, причем четыре десятка приложений решают задачи сбора, распространения и публикации информации как для комментаторов, журналистов и интернет-сообщества, так и для координации работы всех служб. Производительность системы по сравнению с решением, созданным для Солт-Лейк-Сити, выросла почти на треть.
Мы постоянно говорим «система» в единственном числе, хотя фактически в центре находится не одна, а две IT-подсистемы, обслуживавшие 2,5 тысячи спортсменов, 2,5 тысячи членов национальных команд и 10 тысяч журналистов.
Первая — IDS (Information Diffusion Systems) — отвечала за распространение информации. Сердце IDS — это INFO2006, огромная база данных, доступная только на уровне интранета аккредитованным журналистам, спортсменам и другим непосредственным участникам Олимпийских игр. В ней хранилось больше 100 тысяч статей на английском, французском и греческом (последнее — больше из уважения к олимпийским традициям и стране, где началось олимпийское движение), несколько тысяч биографий и другой информации, вплоть до истории изобретения того или иного вида зимних соревнований. Во время Олимпиады пользователи INFO2006 просмотрели около 20 млн. страниц текста.
Важный элемент IDS — Commentator Information System. Задумывались ли вы, откуда комментаторы берут биографические факты и статистику о каждом спортсмене, принимающем участие в стартах? Так вот они берут ее с сенсорного экрана, подключенного к системе комментаторской информации CIS, терминал которой представляет собой обычный десктоп, работающий под управлением Windows XP/2000. Доступ к данным осуществляется с помощью браузера (какого — не уточняется, но вряд ли Opera). Информация обновляется в режиме реального времени и отображается на английском, французском и итальянском. После каждой попытки спортсмена выдается ряд ссылок — на его прошлые успехи и неудачи и т. п. Комментаторам даже подсказывают, с какой эмоциональной окраской говорить о выступлении спортсмена, показывая, что результат — так себе или наоборот — выдающийся.
Третий элемент IDS — это Центральный репозиторий данных, где собирается вся информация о происходящих на Олимпиаде событиях. Она автоматически публикуется на веб-сайте Олимпиады, рассылается ведущим информационным агентствам и печатается для журналистов и официальных лиц, по той или иной причине не пользующихся инфотерминалами.
Вторая IT-подсистема — это GMS (Games Management Systems), отвечающая за управление Играми. Этот класс систем работает на приложениях с повышенными уровнями безопасности и для быстрого разрешения любых ситуаций имеет прямую связь с итальянской полицией, иммиграционной службой и пр.
В GMS также входят системы аккредитации, прибытия и размещения, транспортировки, обслуживания высокопоставленных персон (встречи, мероприятия с участием VIP и т. д.) и медицинская система (включая допинг-контроль).
Безопасность
Комплекс видеонаблюдения стал главным элементом Олимпийской системы безопасности, на которую было потрачено почти 90 млн. евро, а за его установку отвечала компания IndigoVision. Данные с шестисот камер Panasonic Super-Dynamic III в формате MPEG-4 с частотой 25 кадров в секунду передавались по IP-сетям в несколько центров безопасности и анализировались специальным программным обеспечением на наличие движения и нештатных ситуаций на олимпийских объектах.
Порядок обеспечивали 15 тысяч служащих правоохранительных органов, собранных со всей Италии. Вокруг района проведения Олимпиады были размещены ракетные комплексы на случай, если террористы захватят самолет и попытаются атаковать олимпийские объекты. Идентификация атлетов, журналистов, работников, волонтеров и официальных лиц осуществлялась с помощью специальных баджей — Olympic Identity and Accreditation Card, изготовленных компанией Kodak. Всего напечатано более 300 тысяч баджей и 60 тысяч удостоверений, внутри которых не было никаких чипов, лишь порядковый номер в единой базе, а защищались они только оригинальным дизайном и слоем ламината. Естественно, ни о каких очередях и регистрации по прибытии в Турин не могло быть и речи: баджи уже ждали спортсменов, а фотографии сканировались с бумажных заявок на участие. Kodak уверяет, что на выпуск одного баджа уходило не больше десяти секунд, а работало над их производством всего восемь человек…
Любопытно, что из-за строгости пропускного режима в Олимпийскую деревню не смог пройти руководитель Федерального агентства по физической культуре и спорту Вячеслав Фетисов — у него была лишь гостевая аккредитация. А проходить было к кому: российская делегация состояла из 377 человек, из них 178 — атлеты.
К счастью, в Турине не возникло ни одной критической ситуации с точки зрения безопасности спортсменов. Зафиксировано лишь несколько мелких «конфликтных ситуаций».
Движение
Справиться с пассажиропотоком в городе-миллионнике помогло метро, строительство которого велось пять лет и обошлось в 600 млн. евро. Это не так много: например, перед Играми в Нагано на улучшение транспортной инфраструктуры было потрачено больше миллиарда долларов.
Метро в Турине полностью автоматическое, в поездах даже нет машинистов. Подземка буквально напичкана видеокамерами: по две в каждом вагоне и по одной на каждые 100 метров туннеля. Кроме того, камеры установлены во всех вентиляционных скважинах и служебных помещениях.
В городе и на всех пригородных магистралях была введена унифицированная оплата транспортных и парковочных услуг — с помощью бесконтактных карт от компании ASK. Олимпийцам транспортные карты выдавались бесплатно, и за время Игр городской транспорт перевез в горы, где проходила большая часть соревнований, три с лишним миллиона пассажиров.
За перевозку атлетов на спортивные арены тоже отвечала автоматизированная система, синхронизированная с расписанием мероприятий. VIP-персон обслуживали водители-частники, причем действовала особая служба быстрого заказа авто.
Медицина и допинг
Kodak поставляла не только фоторешения, но и медицинское оборудование, в том числе стоматологическое и рентгеновское. В свою очередь, General Electric снабдила медицинские бригады портативными (весом всего 5 кг) аппаратами Logiq Book XP для ультразвукового обследования, а в клиниках Турина, Пинероло и Суса были установлены магниторезонансные томографы, которые после Игр будут переданы в дар местным больницам.
К сожалению, и томографы, и ультразвук пригодились. Американская лыжница Линдсей Килдоу, считавшаяся фавориткой соревнований по скоростному спуску, во время тренировки упала. Сначала она жаловалась лишь на ушибы спины, затем начались сильные головные боли, и в результате спортсменка была госпитализирована. Канадка Элисон Форсайт на той же тренировке порвала связки левого колена.
Понадобилась томография и еще одной американке — Саманте Ретрози, которая во время первого заезда слетела с саней и несколько раз ударилась головой о борта трассы. Самой большой проблемой для российских олимпийцев и лыжников было высокое содержание гемоглобина в крови. Сейчас планируется введение олимпийских паспортов крови, которые позволят объяснить любые отклонения от нормы и снимут подозрения в использовании запрещенных препаратов.
А вот любопытный трагикомический случай. Японский прыгун с трамплина Масахико Хараду всего 200 г не дотянул до положенного в этом вида спорта веса. В результате он был снят с соревнований, а на родине подвергся резкой критике в прессе (за то, что мало кушал).
Данные о медицинском обследовании атлетов, а также результаты допинг-проб автоматически шифровались и пересылались в защищенный дата-центр в Милане, где они будут храниться до распоряжения официальных лиц МОК. Там же будут храниться и паспорта крови спортсменов, когда закончится их внедрение.
Олимпийская сеть
Популярность Интернета как источника новостей об Олимпиаде растет не по дням, а по часам. В 1996 году сайт летних Игр в Атланте был просмотрен «всего» 189 млн. раз, в 2000 году — 634 млн., а в 2004-м — 11,3 млрд. На официальном сайте Torino2006.org было просмотрено более 10 млн. страниц.
Не обошлось, конечно, и без попыток взлома, коих было предпринято несколько десятков тысяч. Все они завершились безуспешно, а одна привела даже к аресту злоумышленника. Им оказался… консультант оргкомитета Олимпиады, угрожавший вывести из строя инфраструктуру Игр. Личность и мотивы угроз хакера неизвестны, как неизвестны и последовавшие санкции.
Сотрудники службы безопасности предотвратили почти десяток попыток подключения ноутбуков к системе INFO2006: во всех случаях, отключив терминал, журналисты хотели получить доступ в Интернет со своего лэптопа. Обе IT-системы контролировало интеллектуальное приложение, работавшее на протяжении всего периода тестирования сети. За это время пакет «выучил» поведение сетевых приложений, генерируемый ими трафик и почти три сотни сценариев работы — в результате администраторы немедленно получали предупреждение о любом отклонении от нормы.
Не обошлось и без традиционного для любых громких событий киберсквоттерства. Так, владелец небольшой ювелирной лавки в Турине приобрел несколько доменов, имена которых представляли собой написанное с ошибками имя официального сайта. В результате торопящиеся попасть на сайт визитеры перенаправлялись на сайт магазина. После того как Олимпийский комитет пригрозил судом, торговец убрал ссылки на магазин и поставил редиректы на официальный сайт.
Российский официальный сайт Турина 2006 не только публиковал новости, но и организовывал прямые онлайн-трансляции матчей, которые могли смотреть пользователи, имеющие канал шириной от 128 кбит/с.
Олимпийское ТВ
Права на телетрансляцию Олимпийских игр впервые были проданы в 1948 году английскому каналу BBC за 3 тысячи долларов, а в 1984-м то же самое обошлось телекомпании АВС в 225 миллионов. В 1988 году в Сеуле ABC уплатила уже 300 млн. долларов за трансляции плюс более 550 млн. отчислений с рекламы.
NBC Universal выкупила в 2000 году права на трансляцию всех Олимпиад вплоть до Пекина 2008 года, что обошлось ей в рекордные 4 миллиарда. Только за Турин телекомпания выложила 470 млн. долларов, зато с посредничества и рекламы выручила миллиард.
Вещательных центров в Турине было два — информационный центр Lingotto Centro Congressi и центр в Сестриере, связанные между собой оптоволоконной сетью.
Вещание из Турина впервые было реализовано целиком «в цифре». Мероприятия записывались в формате HDTV 1080i и со звуком Dolby Digital, однако большинство телекомпаний вели передачи в формате 720p, поскольку HDTV пока недостаточно распространено даже в продвинутых Штатах и Японии. Зато приобщиться к HDTV-качеству могли посетители NBCOlympics.com и делали это довольно активно: с помощью сервисов Videon-on-demand прямые трансляции из Турина были просмотрены 4,3 млн. раз — по крайней мере, именно столько инициированных потоков зафиксировано средствами мониторинга.
Официальным поставщиком телеоборудования была компания Matsushita, которая привезла в Турин комплексы DVCPRO HD и DVCPRO50, а также более 150 цифровых видеокамер DVCPRO P2 с NAND-памятью, спроектированных с учетом суровых погодных условий.
Помимо этого Panasonic установила больше трехсот плазменных панелей и почти 10 тысяч цветных телевизоров и мониторов в вещательном центре, пресс-центре и олимпийских деревнях. 25 огромных видеостен Astrovision, смонтированных на местах соревнований, позволили зрителям рассмотреть все детали происходящего. Для озвучивания мероприятий использовались акустические системы RAMSA, тоже спроектированные для работы при минусовой температуре.
Свободу Олимпиаде
В ближайшее время МОК должен дать ответ на предложение Atos Origin о переводе софтверной инфраструктуры Олимпийских игр на Open Source. Впрочем, программный директор Atos Origin по Олимпийским играм 2006 в Турине Клод Филипс (Claude Philipps) уверен, что положительное решение будет принято еще до конца марта и программную платформу переведут на Open Source уже на пекинской Олимпиаде. По словам Филипса, это позволит не только сэкономить на лицензиях, но и сократить расходы, связанные с технической поддержкой, поскольку у Atos Origin в Китае нет деловых и технических партнеров, как в Европе.
При этом надо понимать, что к надежности IT-систем предъявляются высочайшие требования, ведь от нее, кроме всего прочего, зависят колоссальные прибыли. Так, на Олимпиаде в Афинах МОК запретил использовать беспроводные сети, поскольку новые решения не прошли всех испытаний. По словам специалиста Atos Origin по IT-безопасности игр в Турине Массимо Доссетто (Massimo Dossetto), c помощью Cisco компания успеет к 2008 году завершить переход на мультисервисную беспроводную инфраструктуру повышенной надежности, которая позволит зрителям и персоналу получать доступ к любой информации об Играх — посредством ноутбуков, наладонников и сотовых телефонов. Но — подчеркиваем — только по завершении всех тестов.
Одним из элементов новой беспроводной системы будут сервисы WiBro, представляющие собой мобильную модификацию WiMAX на базе IEEE 802.16e. Недавно одобренный в качестве международного стандарта связи, WiBro будет запущен в коммерческую эксплуатацию в Южной Корее летом 2006 года. В ходе Игр в Турине Samsung и Telecom Italia Mobile успешно протестировали систему в режиме дублирования передачи данных с мероприятий в Центральный репозиторий данных и в режиме сервисов для пользователей мобильной связи. В испытаниях использовались мобильные телефоны от Samsung, которые смогли получать и передавать данные со скоростью до 20 и 30 Мбит/с соответственно. По результатам тестирования TIM приняла решение о развертывании и запуске WiBro в Италии в 2007 году.
Олимпийцам и членам МОК компания Samsung предоставила 8 тысяч мобильных телефонов SGH-D600 с поддержкой беспроводной сети WOW (Wireless Olympic Works). WOW, уже протестированная в Афинах, позволяет получать все новости различных форматов прямо на экран телефона. С помощью мобильной версии INFO2006 владельцы телефонов могли работать в интранете и искать информацию об Олимпиаде. Помимо этого была задействована служба извещения членов олимпийского сообщества (Olympic Community Messaging), которая позволяла быстро доставлять участникам Игр сообщения о важных событиях и мероприятиях, в том числе поправках в расписании и т. п.
Отметим, что большая часть информационной системы сразу же после Паралимпийских игр (10—19 марта), на которых будет задействовано 1200 рабочих станций, 120 серверов, 250 инфотерминалов и 650 принтеров, переедет в Барселону на доводку и хранение.
Насчет Игр в Пекине пока известно, что IT-решение будет включать около 400 серверов, 5 тысяч персональных компьютеров, 1,5 тысячи информационных терминалов и 600 принтеров. Обслуживать это море техники будут около 2 тысяч сотрудников Atos Origin и 1 тысяча добровольцев.
В Пекине будет также внедрена система идентификации оборудования с помощью RFID-меток, а вот от биометрии и смарткарт решено отказаться. По словам Доссетто, развертывание сети ридеров и выдача сотен тысяч ID-карт всего лишь для одного мероприятия экономически нецелесообразно.
Ставок больше нет
Сразу же по завершении Олимпиады в Италии вступил в силу закон, запрещающий азартные игры через интернет-сайты, расположенные за пределами страны. Все местные провайдеры обязаны заблокировать своим пользователям доступ к более чем 500 иностранным сайтам, принимающим ставки в онлайне. Объясняется это тем, что игровые деньги (а значит, и налоговые поступления от игрового бизнеса) должны пополнять бюджет страны, а не утекать за границу.
Предупреждение об этом было издано за две недели до запрета, чего, по мнению госорганов, достаточно, чтобы успеть потребовать у зарубежных букмекеров возврата денег. Вместе с тем австрийский онлайновый тотализатор Betandwin, крупнейший в Интернете, объявил, что за XX Олимпийские игры ставок было сделано столько же, сколько в среднем за три месяца, — почти на 300 млн. евро. Всего за 2005 год объем спортивных ставок на Betandwin.com вырос почти на 50%. Впрочем, не стоит думать, что спорт — главный двигатель азарта в Сети: у того же Betandwin прибыль от старого доброго покера выросла за прошлый год на 780% и составила в четвертом квартале 4 млн. евро.
Наверное, вы заметили, что, говоря о светлом празднике спорта, мы постоянно возвращались к теме денег. Увы, такова специфика наших дней: любое хорошее начинание немыслимо без крупных инвестиций, но если оно не сулит прибыли, денег на него никто не даст. Поэтому, радуясь мастерству атлетов и совершенству IT-инфраструктуры, не следует забывать о финансовой стороне дела. Ведь если гости-спонсоры не принесут подарки, следующего праздника может просто не случиться…
Проектирование на бобах
История зимних видов спорта началась примерно за тысячу лет до нашей эры. Древние люди привязывали к ногам кости животных, чтобы скользить на них по замерзшей поверхности воды. Кости связывали параллельно и делали из них подобие саней. От примитивизма к идеалу — сегодня без высоких стандартов и технологий в зимнем спорте никуда.
Ныне все оборудование и экипировка стандартизируются и разрабатываются с использованием новейших технологий. Так, специально к Олимпиаде International Organization for Standardization (ISO) разработала ряд стандартов и методик тестирования для спортивного инвентаря, в том числе для лыжных ботинок (ISO 5355:2005) и креплений для сноубордов (ISO 15344:2005). American National Standards Institute, в свою очередь, стандартизировал шлемы для хоккея на льду, снижающие травматизм.
Самое главное в бобслее — это разбег, аэродинамические характеристики болида и профессионализм пилота. С 1960 по 1990 гг. американские бобслеисты тренировалась на подержанных болидах европейских команд. Лишь в последние десять лет США начали проектировать собственные болиды — при помощи бывшего пилота гонок NASCAR Джоффри Бодина и дизайнера шасси и подвески Боба Кунео.
В Солт-Лейк-Сити благодаря компьютерному моделированию американки взяли золото на двухместных бобах, а мужчины — серебро и бронзу на четырехместных.
Кунео и Бодин используют вычислительную гидродинамику (CFD) и решения от компаний Capture 3D, Raindrop Geomagic и Automotive Aerodynamics. Обходится проектирование американцам примерно в 10% от тех сумм, которые тратит большинство европейских команд.
Разработчики самостоятельно сделали CAD-слепки бобов и атлетов, но они были неточны и непригодны для моделирования. Найти компанию, которая бы точно «сосканировала» бобы и пилотов, оказалось нелегко. Большинство решений предполагало неподвижное сидение в неудобной позе на протяжении нескольких часов, и даже вдох или малейшее движение резко снижало точность.
Проблему помог решить Ким Блэр, глава лаборатории MIT, занимающейся спортивными технологиями и программным обеспечением для анализа аэродинамических показателей. В компании Capture 3D «слепки» с бобов сняли за три дня в 103 подхода — точность составила 50 мкм. Модель перевели в формат STL в пакете ATOS и наложили на нее полигоны. В детройтской компании Raindrop Geomagic из эскиза создали законченную 3D-модель и перенесли в пакет Geomagic Studio, где закончили «цифровой мастеринг».
Получилось два боба — для двух и четырех человек. Ради пущей точности файлы NURBS были сверены с оригинальными STL, экспортированы как файлы IGES и переданы в компанию Automotive Aerodynamics of Cornelius. По результатам исследований в модели бобов были внесены модификации. На всех предолимпийских соревнованиях команда США показывала лучшее время. В Турине американки на бобслеях-двойках заняли второе место — их на 0,71 секунды опередила сборная Германии. Американцы в четверке не смогли подняться на пьедестал почета, уступив тем же немцам и россиянам. Кстати, в российских бобах используются немецкие полозья.
ТЕМА НОМЕРА: Когда-то в Москве
Автор: Сергей Вильянов
Как известно, без прошлого нет настоящего и будущего. Поэтому, говоря о технике, используемой на Олимпиадах XXI века, мы не должны забывать о том, что многие привычные нам решения когда-то были потрясающими воображение новинками. Больше того, часть из них впервые переместились с чертежей в реальность благодаря нашим соотечественникам — здесь, в Москве. Чтобы узнать подробности, мы попросили ответить на наши вопросы Анастасию Петровну Оситис, генерального директора ОАО «АСВТ», принимавшую деятельное участие в разработке и развертывании инфокоммуникационной системы московской Олимпиады восьмидесятого года.
Для Олимпиады-80 создавалась комплексная телекоммуникационная система, которая должна была обеспечить качественной связью спортивные и спортивно-тренировочные сооружения, места проживания, главный пресс-центр и пресс-центры на спортивных объектах и транспорт. Кроме того, она должна была обеспечить высококачественное теле— и радиовещание. В районе Останкинского телецентра были построены специальные сооружения для сбора первичной информации, подготовки программ и передачи для вещания в «Останкино» или за рубеж. Эти сооружения были напрямую связаны со всеми спортивными объектами. Особенность московской Олимпиады по сравнению с предшественницей в Монреале — удаленность спортивных сооружений друг от друга, что практически исключало возможность создания новой кабельной инфраструктуры. В то же время для решения всех телекоммуникационных задач только в Москве требовалось создать более тысячи высококачественных каналов связи, а существующая инфраструктура — тогда полностью аналоговая — не могла предоставить эти ресурсы. О сложности проекта можно судить хотя бы по тому, что иностранные участники международного тендера, проведенного Правительством СССР, ознакомившись со всеми требованиями к решению, не взяли на себя ответственность за создание системы. В результате исполнение проекта было поручено Отделу спецсвязи МГТС. Отдел проектировал решение, выбирал оборудование, размещал заказы в научных учреждениях и на предприятиях, принимал работы, вводил систему в эксплуатацию и отвечал за работоспособность системы в целом. Успешное выполнение проекта, на которое ушло чуть больше двух лет, стало возможным благодаря слаженной работе всех структур и организаций, задействованных в его реализации на всей территории бывшего СССР и некоторых странах СЭВ. Проект лично и постоянно курировал министр связи СССР Талызин. Самым принципиальным стало решение создавать систему на базе цифровых каналов связи, работающих в основном «поверх» уже существовавшей проводной инфраструктуры МГТС. Для создания цифровых каналов использовалось оборудование ИКМ-30, специально разработанное НИИ дальней связи. Кроме того, использовалось новейшее оборудование Nokia. Оборудование ИКМ-30 позволило на каждой витой паре создать тридцать цифровых каналов. Кстати, это оборудование — усовершенствованное и модернизированное — используется до сих пор.
На этой основе была создана олимпийская выделенная телефонная сеть (ОВТС). Во время Олимпиады она покрывала территорию Москвы, а в дальнейшем была расширена на всю территорию СССР и стала знаменитой «Искрой». Именно для Олимпиады-80 была создана первая международная автоматизированная телефонная станция (АМТС). До этого за границу приходилось звонить через оператора.
Также к Олимпиаде была модернизирована и значительно расширена радиотелефонная сеть «Алтай», позволившая телефонизировать транспорт. Все — от идеи до оборудования — было советским. Кстати, насколько я знаю, московская Олимпиада стала первой в мире, где широко использовалась мобильная связь.
Поддержка вещания тоже потребовала создания новой инфраструктуры. Ее основу составили построенные в районе телецентра «Останкино» два уникальных объекта с рабочими названиями «Центральная аппаратная» и «Олимпийский комплекс». В Аппаратную в реальном времени поступали видео— и аудиопотоки, а также дикторская информация со всех объектов в соответствии с графиком соревнований. Из Аппаратной эта информация поступала в Олимпийский комплекс, в студиях которого она превращалась в передачи. Далее передачи шли в теле— и радиоэфир, а также за рубеж, для чего потребовалось усовершенствовать международные каналы связи.
Была разработана цифровая аппаратура с широким частотным и динамическим диапазонами для передачи вещательных сигналов. Кстати, это было первое в мировой практике использование цифрового вещательного оборудования. Повторюсь — на все про все ушло чуть больше двух лет. Помогла хорошая организация проекта: необходимое оборудование, вплоть до специальных стоек и мебели, поступало строго по графику и сразу же монтировалось. Вместе с тем нередко оборудование работало не так, как было нужно, и приходилось буквально на ходу находить причины и вносить изменения, добиваясь безупречной работы. Естественно, времени на такие доработки предусмотрено не было.
А сколько стоило создание инфокоммуникационного обеспечения Олимпийских игр в 80-м?
— Даже не знаю, эти решения принимались на самом высоком государственном уровне.
Хорошо, тогда какие принципиальные отличия имело решение 80-го года по сравнению с предыдущей версией, используемой на монреальской Олимпиаде 1976-го?
— Для каждой Олимпиады всегда создается уникальное решение, и московская не была исключением. Ее принципиальное отличие от всего, что было ранее, — широкое использование цифровых технологий. И это было новаторством не только в связи для спорта, но и вообще в мире. Больше того, именно с Олимпийского проекта началась «цифровизация» связи СССР. В мире все происходит наоборот — сначала цифровые технологии внедряются на международных и междугородних участках, а потом приходят в города.
Насколько жестко контролировалось создание решения Международным Олимпийским Комитетом?
— Конечно, МОК всегда контролирует подготовку систем связи для любой олимпиады. И к Олимпиаде-80 были предъявлены определенные требования, были и контроль, и отчетность на каждом крупном этапе подготовки. Для такого контроля есть вполне разумные объяснения. Дело в том, что Олимпиада — это всегда коммерческий проект, и чтобы он дал прибыль, нужно, чтобы новости и фотографии с Олимпиады мгновенно появлялись в информационных агентствах и в редакциях газет, а передачи продавались и транслировались по всему миру. Выполнение требований МОК как раз и гарантирует, что качество подготовленных материалов соответствует требованиям основных вещателей во всем мире.
Но в отношении нашей Олимпиады-80 чувствовались сомнения иностранных организаций в том, что все намеченное будет воплощено в жизнь — слишком инновационным и масштабным был этот проект. Но проект был завершен в срок, и за все время Олимпиады не было ни одного нарекания.
В последнее время часто слышны обвинения в адрес судей — дескать, они подсуживают спортсменам из симпатичных им стран. А возможна ли незаметная корректировка результатов на «аппаратном» уровне?
— Я не специалист в этом вопросе, но думаю, что метрология и технический контроль уже тогда находились на таком уровне, что подтасовка результатов не была возможна даже технически.
А какова была судьба системы после Олимпиады? Ведь в СССР было принято использовать оборудование до последнего, пока оно не рассыплется от старости…
— В целом создание телекоммуникационной системы «Олимпиады-80» было прорывом для всей системы связи СССР. Именно с Олимпийского проекта началось практическое применение цифровых технологий в связи, особенно в гражданском секторе. Олимпийская выделенная телефонная сеть шагнула за пределы Москвы и со временем вошла во всесоюзную сеть «Искра», которая, пережив несколько технологических революций, сегодня является единственной действующей инфокоммуникационной сетью всероссийского масштаба. Оборудование «Алтай» было использовано для создания многих транковых сетей в регионах страны. Московская же сеть «Алтай» получила дальнейшее развитие — после цифровизации и установки оборудования Actionet и перехода на сотовую схему построения она и сейчас широко используется как сеть профессиональной мобильной связи «РусАлтай», охватывающая весь московский регион. Оборудование ИКМ-30 используется на сетях связи страны до сих пор. На Телецентре и в Радиодоме широко использовались различные элементы вещательного тракта, разработанные для Олимпиады. К сожалению, сразу после Олимпиады была расформирована Центральная трансляционная аппаратная, и уже на следующей спартакиаде приходилось обходиться без нее. Причина такого решения специалистам непонятна до сих пор…
ТЕХНОЛОГИИ: Покупательные способности: Интернет-магазин изнутри
Автор: Родион Насакин
Популярность электронной коммерции привела к буму на рынке ПО для управления онлайн-магазинами. Уж очень многим захотелось иметь свой собственный магазинчик в Сети, и производители не могли не откликнуться на зов потенциальных конкурентов Amazon и eBay. Правда, широкий выбор, подобно познанию, несет в себе печаль: очень трудно стало выбрать оптимальное решение, внедрение которого укладывалось бы в бюджет фирмы или ПБОЮЛ и одновременно удовлетворяло требованиям гендиректора, главного бухгалтера и системного администратора. Глаза разбегаются!
Краеугольный камень
Большая часть готовых решений для интернет-магазинов представляет собой надстройку из нескольких модулей над существующей системой управления контентом (CMS). Разработкой таких систем занимаются все кому не лень: от солидных компаний до студенческих команд. Отсюда и разброс в ценах: от двух сотен до пятидесяти тысяч долларов. Интернет-магазин рассматривается просто как один из стандартных типов сайта, наряду, к примеру, с корпоративным порталом или авторским проектом «Я и моя странная кошка». Напомню, что CMS — это общая платформа, позволяющая добавлять, переносить и удалять файлы и разделы сайта через веб-интерфейс, управлять динамическими разделами, а также выполнять ряд других рутинных операций, вроде проведения поисковой оптимизации.
Если заказчику нужен сайт, который будет служить не только источником информации, но и торговым каналом, он просто выбирает соответствующий продукт из линейки ПО. В бизнес-версию CMS входят несколько модулей, позволяющие реализовать функции управления как сайтом (например, распределение прав доступа, техподдержка или интеграционный шлюз с СУБД), так и продажами. Минимально приемлемый набор включает в себя не только элементарную организацию торгового процесса, но и начальные инструменты для обратной связи, маркетинга и анализа.
В модуле интернет-магазина обычно находятся средства для создания каталога товаров, корзины покупателя, оформления заказа и административного раздела. Общепринято наличие для каждой категории товаров страницы, содержащей краткие аннотации и предпросмотровые изображения для быстрой загрузки. Не стоит забывать и о том, что каждый элемент категории должен содержать гиперссылку для более детального знакомства с заинтересовавшим предметом, а встроенный в систему поиск по каталогу должен помочь клиенту быстро выйти на необходимую ему вещь. Для этого, помимо наименования и категории, должны использоваться другие критерии поиска — например, временной диапазон поступления, цена, страна-производитель и т. д. Ведь все мы понимаем: чем подробнее результаты поиска, тем выше шанс, что клиент не уйдет без покупки.
Содержимое корзины должно изменяться не только в сторону увеличения номенклатуры, нужно, чтобы покупатель мог изъять оттуда выбранный было товар и просмотреть новую суммарную цену покупок. Вроде бы мелочь, однако коммерсанты-новички о ней часто забывают. Текущее содержимое корзины должно отображаться постоянно, кроме того, если пользователь уже выбрал способ оплаты и доставки, рекомендуется показывать стоимость покупок с учетом доставки, комиссионных платежных систем и т. п.
Два слова о регистрации. Стандартная последовательность превращения посетителя в покупателя: «регистрация — выбор — покупка» может быть изменена. То есть, по желанию посетителя, он может зарегистрироваться до или после наполнения корзины. Данные, полученные в ходе авторизации, должны передаваться по SSL-протоколу или быть защищены другим эффективным способом. В момент обработки заказа необходимо показать покупателю уведомление о задержке в связи с приемом его данных — в противном случае, как показывает практика, покупатель может решить, что система просто «зависла», и прервать соединение. В общем, процесс покупки-продажи легко может сорваться на любом из этапов, поэтому помните — мелочей в е-бизнесе нет, и почаще вспоминайте заголовок книги Энди Гроувы «Выживают только параноики».
Пользовательская часть
Чтобы наладить механизмы безналичного расчета, магазину нужно воспользоваться услугами процессинговых компаний или установить шлюзы к отдельным электронным платежным системам напрямую. После этого покупатель будет сообщать свои личные финансовые данные не магазину, а серверу процессинговой компании, который, получив от магазина данные о сделке, связывается с платежной системой или банком покупателя и снимает необходимую сумму, и после вычета комиссионных она поступает на счет магазина.
Кстати, если е-бизнесмен намерен обслуживать и зарубежных покупателей, ему придется изрядно похлопотать, так как счет для получения транзакций с кредитных карт (известный как мерчант-аккаунт) получить непросто. Подобный банковский шлюз могут открывать не только кредитные организации, но и специализированные компании MAP (Merchant Account Provider), с которыми банки заключают договор[Подробнее эта схема рассматривалась в статье «Тернистый путь интернет-торговца» («КТ» #29-30 от 24.08.04)].
Информация о покупателе[За исключением той, что положено знать только процессинговой компании или платежной системе] и заказе заносится в базу данных, причем здесь всплывает потребность еще в одном важном компоненте модуля е-коммерции — разделе истории заказов, где пользователи могут просматривать хронологию своих покупок и статус сделок. В свою очередь, интерфейс администратора в торговом модуле должен позволять редактировать список заказов для каждого покупателя, изменять их статусы, информацию о доставке и ее стоимости, данные о доступных платежных системах, типах плательщиков (юридическое/физическое лицо), скидки, налоговые ставки, валютные курсы и используемые валюты.
CMS для интернет-магазина должна также иметь расширенные средства для работы с пользователями (так как они в данном случае являются еще и посетителями магазина, то есть потенциальными покупателями) и инструменты по автоматизации торгового процесса.
Пользовательская часть системы отвечает за разграничение доступа к контенту для зарегистрированных пользователей с различным статусом. Регистрация состоит из двух этапов: заполнения соответствующей формы на публичной части сайта и подтверждения авторизации администратором. Думаю, многие сталкивались с этой процедурой при регистрации на форумах или открытии бесплатного аккаунта электронной почты: когда в базу данных заносится запись о новом пользователе, одно из полей записи имеет уникальный ключ, генерируемый на основе e-mail-адреса, который и отправляется в указанный посетителем ящик внутри URL. Перейдя по этому ключу, пользователь запускает обработчик, сравнивающий ключ в ссылке с записью в базе данных, и при совпадении обоих ключей регистрация завершается.
На этом этапе можно реализовать идеи индивидуального подхода к клиенту — псевдоперсональные рассылки (с указанием имени) о новых товарах, стимулирующие возвращение покупателей, накопительные скидки. Не помешает и создание коммьюнити или партнерской сети возле интернет-магазина с помощью выделения администратором в CMS специальной группы, члены которой смогут иметь доступ к специальным проектам или получать дополнительную скидку, обеспечивая повторные продажи. Примерами последнего проекта служат «Клуб Молоток» у крупнейшего онлайн-аукциона в Рунете, «Партер-клуб» в интернет-магазине театральных билетов Parter.ru, партнерская программа в Ozon.ru и т. д. Собранная база данных позволит магазину проводить маркетинговые исследования, корректируя политику продаж по возрастным группам, социальному положению и даже половому признаку. Возможна и большая детализация, если при регистрации пользователь отвечает на вопросы о наличии автомобиля, бытовой техники и других признаках своей состоятельности. Правда, тут надо быть очень осторожным, потому что редкий человек дойдет до середины анкеты с сотней слишком интимных вопросов.
На практике
Большинство систем управления интернет-магазинами находятся в ценовом диапазоне $500—2000, причем как в России, так и за рубежом. Хотя есть и дешевые варианты: так, довольно популярный PHP-скрипт ShopScript, который в самой «богатой» Premium-комплектации (с организацией партнерской программы и функцией расширенного поиска) стоит всего $299.
Цена решения обычно складывается из цен входящих в нее модулей. Например, свой основной е-коммерческий модуль компания «Аист» (платформа NetCat) оценивает в $280, но его функциональность будет минимальной. Придется доплатить за поисковый механизм ($90), за обработчик опросов посетителей ($80), за управление рекламой ($320) — вот мы и перешли пятисотдолларовый барьер и подошли к тысячному.
Но обычно продаются уже сформированные пакеты модулей. В частности, довольно популярная на ru-просторах платформа «Битрикс. Управление сайтом» (которая, кстати, используется администраторами ) может поставляться с двумя СУБД: MS SQL и Oracle, что заметно влияет на цену. Для примера, версии «Бизнес» обойдутся в 1699 и 7999 долларов соответственно. Ядро системы и функциональность одинаковы, так что выбор осуществляется исходя из масштабности проекта. В модификации ПО «Битрикс» для интернет-магазинов включены восемнадцать модулей. Для выполнения коммерческих операций к главным функциям приросло немало дополнительных: средства документооборота, журнализации изменений контента, загрузки/обновления XML-данных о товарах (например, из бухгалтерского ПО или ERP-системы), экспорта/импорта данных каталога в формате Excel, управления типами цен, распределения прав доступа покупателей к ценам (просматриваются некие зачатки поведенческого таргетинга), управления дисконтными программами, учета в окончательной цене стоимости доставки в конкретный регион, обработки заказов, а также платежные интерфейсы. Инструменты маркетингового характера в «Битриксе» представлены в модулях статистики, опросов, управления подпиской и форумов.
Другой отечественный разработчик ПО для интернет-магазинов — компания OSG — сделала ставку на тесную интеграцию с продукцией «1С». Несмотря на присутствие в линейке решений и CMS для сайтов некоммерческого профиля основные заказчики OSG — все же предприниматели, которым предлагается три варианта ПО в зависимости от масштаба бизнеса. В двух из них, Standard и Prof ($1000 и $4000 соответственно), используется ядро WebShop, позволяющее упростить управление магазином с учетной системой (прежде всего с «1С:Предприятием»).
Среди стандартных модулей: WebShop Manager — для ведения базы товаров, пользователей и обработки заказов; WebSite — для работы с новостями, рассылками, форумами, гостевыми книгами, опросами и викторинами; XML Approach — для автоматического размещения данных об ассортименте в товарных каталогах Сети; Partners — для управления партнерской программой.
Интересный штрих — свои системы OSG не продает. Предусматривается лишь сдача в аренду, причем ежемесячные взносы зависят от широты ассортимента магазина. Так, если на «полках» лежит менее трех сотен товарных единиц, владелец магазина платит каждый месяц по $75, менее тысячи — по $125, менее десяти тысяч — по $200. Конечно, аутсорсинг приложений практикуют и другие разработчики, но полный переход на ASP[Application Service Providing — аренда программных продуктов и мощностей сервера на основе ежемесячных платежей с доступом к приложениям через Интернет или частную виртуальную сеть] — пока редкость.
Поскольку функциональность и цена решений для интернет-магазинов от разных разработчиков находятся примерно на одном уровне, в борьбе за клиента создателям торгового софта приходится быть внимательными к мелочам. Например, при всяком удобном случае проходить сертификацию и вылавливать редкие, но неизбежные баги в своей продукции. В частности, «Битрикс» получил сертификат соответствия и статус «Безопасного веб-приложения» из рук Positive Technologies, после того как прошел проверку на уязвимость ко всем распространенным типам атак на сетевое ПО.
А «OSG Интернет-магазин» получил сертификат качества от довольно авторитетного в круге рунетных веб-разработчиков портала SearchEngines.ru. Правда, в последнем случае сертифицировали не столько безопасность, сколько комфортность магазина для покупателя, что вполне вписывается в специфику сайта, посвященного преимущественно поисковой оптимизации и вопросам юзабилити. Так, было отмечено, что разработчикам из OSG удалось избежать стандартных ляпов, вроде перегрузки страницы html-элементами или некастомизированной страницы с сообщением об ошибке 404.
Еще один важный аспект — возможность подключения к системе модулей от других разработчиков, а также помощь поставщика в доработке системы под заказчика.
Сделай сам
Частенько е-бизнесмены отказываются от вышеописанных и аналогичных им решений, предпочитая делать софтверным компаниям заказы на индивидуальные разработки или создавать интернет-магазин своими силами. При этом писаться с нуля может как система в целом, так и «коммерческий» движок, который затем «прикручивается» к какой-нибудь «фирменной» CMS. Последний вариант имеет место в том случае, когда в магазине необходимо реализовать множество специфичных функций и стандартным косметическим набором для индивидуальной подгонки типового решения уже не обойтись.
Собственные разработки имеют ряд объективных преимуществ: например, возможность реализации своих оригинальных идей, капризов и задумок, ограниченных лишь профессионализмом программистов и бюджетом. Для крупнейших интернет-магазинов, таких как Amazon.com «у них» или Ozon.ru — у нас, широкий простор для коммерческого креатива — залог выживания. Мэтры электронного бизнеса уже не будут довольствоваться простеньким скриптом для партнерской программы или элементарной программой скидок. Им подавай бонусные и многоуровневые дисконтные системы, клубы покупателей и VIP-клиентов и ограниченные по сроку действия маркетинговые акции.
Отнесем туда же специфические возможности для каждой отдельной категории ассортимента, привлекающие клиентов. Взять хотя бы описание продаваемого на Ozon.ru DVD: на соответствующей странице помещены не только фотография обложки, аннотация и цена, но также сообщается о наличии в продаже фильма в VHS-формате, указывается рейтинг, публикуются отзывы зрителей, кадры из фильма, ссылки на рецензии, биографии режиссера, продюсеров и актеров с возможностями поиска других фильмов, к которым они приложили руку. Еще покупателю предлагают взглянуть на список товаров, которые чаще всего покупают вместе с текущим. Авось, что-нибудь еще привлечет внимание. Ну и наконец, мощные системы статистического анализа и зачатки CRM[Customer Relationship Management — общее название для «клиентоцентрированной» бизнес-методологии и класса корпоративных систем на ее основе]-функциональности (это уже не юзабилити) в рамках продукта за пару тысяч долларов не создашь. Серийные решения такого уровня практически отсутствуют, так как желающих приобрести их немного. Поэтому «собственноручный вариант» в данном случае — безальтернативен. Возникает скорее обратная ситуация: к уникальной системе покупаются и интегрируются готовые «запчасти» вроде шлюзов с платежными системами или аналитические модули.
Другими верными сторонниками самостоятельной разработки остаются е-коммерсанты со скромным бюджетом, для которых выделить тысячу-другую долларов на покупку готового решения — непозволительная роскошь. Обычно они и бизнесмены, и разработчики в одном лице.
Естественно, от недостатков уникальные системы тоже не свободны. Самыми частыми проблемами остаются зависимость от собственных программистов и высокая плотность обнаруживаемых багов на единицу времени. И разумеется, немало сил и человеко-часов придется потратить на разработку. А поскольку времени всегда не хватает, постоянное давление на программистов не способствует качеству и стабильности работы системы.
В итоге наиболее приемлемым для бизнесмена «средней руки», не склонного к экспериментам, можно назвать готовое решение на базе одной из хорошо зарекомендовавших себя CMS. Не лишне узнать о том, какое ПО используется у интернет-магазинов со сходной бизнес-структурой: ассортиментом, видами платежей, доставки, маркетинговой политикой и т. д. Хотя дорабатывать, конечно, все равно придется. Ну а куда деваться, ведь покупатель должен быть полностью удовлетворен. Ради чего, собственно, все и затевалось, если не считать воплощения почти вековой мечты бывшего советского человека о собственном свечном заводике…
Скрипты с идеологией
Самым популярным инструментом для создания интернет-магазинов в Рунете (и не только) является пакет скриптов osCommerce. К тому же он овеян флёром Open Source со всей сопутствующей атрибутикой: «духом свободы», бесплатностью стандартного варианта поставки и успешно работающей в течение четырех лет группой поддержки сообщества OSCOMMERCE RU TEAM.
Впрочем, уже покупаются и готовые «сборки» магазинов на базе движка osCommerce. Одни их нахваливают, другие ругают за множество функциональных модулей, которые удовлетворяют всем требованиям среднестатистического малого бизнеса в Интернете, но одновременно с тем дают избыточные малоиспользуемые возможности. Нередко «сборки» приобретают для того, чтобы оценить потенциал osCommerce, а затем на базе движка создается уникальная система.
osCommerce зачастую интегрируют с CMS Joomla (прежнее название — Mamba), распространенной открытой платформой, существующей в нескольких модификациях. Для связки используют специальные интеграционные пакеты: osCommerce Bridge или josCommerce. Впрочем, на мировом уровне большей популярностью пользуется другой е-коммерческий движок — VirtueMart (бывший mamba-phpShop). В России он не получил широкого распространения, поскольку требует серьезной доработки под отечественные реалии: медленно работает и имеет проблемы с поддержкой валют и налогообложения. Впрочем, автор общался с разработчиками, у которых были претензии osCommerce и которым хватило духу подогнать VirtueMart под себя. Они не жалеют о сделанном выборе.
В частности, исходя из опыта, можно отметить, что все магазины osCommerce очень похожи один на другой. В то время как проекты на базе тех же VirtueMart + Joomla могут заметно отличаться. Да и наличие у второй связки официальной техподдержки тоже немаловажно.
Автор благодарит Александра Самсонова и Сергея Трофимова за помощь в написании статьи.
Наука: Считать или не считать?
Авторы: Галактион Андреев, Киви Берд
Удивительный трюк с прототипом квантового компьютера удалось проделать физикам из Университета Иллинойса в Урбана-Шампань под руководством профессора Поля Квайэта (Paul Kwiat, на фото он справа). Включенный компьютер с «загруженной» программой нашел правильный ответ и без запуска программы на счет.
Как известно, квантовые компьютеры потенциально способны решать определенный круг задач гораздо быстрее, чем компьютеры классические. Скорость и эффективность поиска ответа достигаются за счет того, что квантовые биты можно помещать в состояние суперпозиции, когда кубит одновременно имеет значения логического нуля и единицы, и, «запутав» их состояния друг с другом, выполнять вычисления со всеми кубитами параллельно.
В состояние суперпозиции можно поместить не только отдельные биты, но и весь компьютер. То есть он может одновременно и «считать», и «не считать». Идея таких контрфактических (сounterfactual) квантовых вычислений, которые позволяют судить об ответе еще до его получения, была предложена в 1998 году, однако до сих пор считалось, что они имеют ряд принципиальных ограничений и практически бесполезны.
Теперь эти трудности удалось преодолеть за счет использования другого квантового трюка — технологии «квантовых допросов» (quantum interrogation), или оптического обнаружения объектов «в темноте» без взаимодействия с ними. Эта техника, давно разрабатываемая в той же иллинойсской группе, интересна сама по себе и описывается во врезке.
В оптической реализации квантового компьютера используется хитрая комбинация из нескольких интерферометров, вращающих поляризацию пластин, поляризаторов, расщепителей луча, фотодетекторов и другого оборудования. Компьютер осуществляет поиск в четырехэлементной базе данных по известному алгоритму Гровера для квантового поиска информации в неупорядоченных массивах. Поместив компьютер в суперпозицию состояний, соответствующих «работе» и «не работе» алгоритма поиска, исследователи получили информацию об ответе, не запуская алгоритм. В некотором смысле благодаря технике обнаружения объектов без взаимодействия с ними компьютер нашел ответ в базе данных, так и не заглянув в нее. Это совершенно противоречит здравому смыслу, но почему-то работает.
Тем не менее для получения ответа при таких вычислениях квантовый компьютер должен быть исправен, правильно запрограммирован и включен. Поэтому скептики полагают, что даже если ответ получается и без запуска программы на счет, никакой экономии электроэнергии или труда программистов не предвидится. Для чего же все это нужно, кроме как для демонстрации квантовых парадоксов?
Установка, созданная в Иллинойском университете, действительно носит сугубо демонстрационный характер и не может быть масштабирована для поиска информации в более крупных базах данных. Однако сконструировавшие ее ученые полагают, что подобного рода квантовые трюки могут сокращать число ошибок в крупномасштабных квантовых вычислениях. Они применимы не только в оптических квантовых компьютерах, но и при любой иной физической реализации кубитов — например, с помощью ионов или полупроводниковых квантовых точек. И уже этим они представляются полезными, поскольку любая технология, сокращающая ошибки, увеличивает шансы на скорейшее создание полноценного квантового компьютера.
Искусство видеть в темноте
Очень странный на первый взгляд механизм «квантового допроса» или квантовых оптических измерений «без взаимодействия» с измеряемым объектом на самом деле не очень сложен, по крайней мере в принципе. Его идею легче всего понять на простейшем мысленном эксперименте, предложенном в 1993 году Авшаломом Элитзуром и Львом Вайдманом (Avshalom C. Elitzur, Lev Vaidman), который получил известность как парадокс проверки бомбы.
Предположим, что в некотором абсолютно темном помещении может быть заложена сверхчувствительная бомба, которая взрывается при поглощении единственного фотона. И нам надо выяснить, есть ли она там на самом деле. У классического сапера нет никаких шансов. При любой попытке что-то увидеть фотон попадет в бомбу, и она взорвется.
Но у «квантового сапера» некоторый шанс есть. Для проверки наличия бомбы нужно взять простейший интерферометр Маха-Цендера (того самого Маха, философию которого критиковал в свое время Ленин). Интерферометр состоит из пары полупрозрачных (A и D) и пары обычных зеркал (B и С). Если его плечи одинаковы, то при отсутствии бомбы фотоны, запущенные слева в зеркало A, будет регистрировать только правый детектор D2, поскольку из-за интерференции волн света они полностью потушат друг друга и не попадут в верхний детектор D1. Причем такая интерференция наблюдается, даже если фотон лишь один, как это ни кажется парадоксальным.
А что произойдет, если бомба есть? С вероятностью 50% фотон отразится от первого полупрозрачного зеркала вверх, попадет в бомбу, и она взорвется. Ну что ж, саперу не повезло. Но с той же вероятностью фотон полетит по нижнему плечу интерферометра, и тогда у нас есть два варианта. Либо фотон отразится от последнего зеркала и попадет в детектор D2, и мы ничего не сможем сказать о наличии или отсутствии бомбы. Придется пробовать еще раз. Но если нам повезет, то фотон будет пропущен последним зеркалом и попадет в детектор D1, и тогда мы с уверенностью сможем сказать, что бомба есть, поскольку если бы бомбы не было, то из-за интерференции в этот детектор ничего бы не попало. Шансы на удачу невелики, всего 25%, но это все же лучше, чем ничего.
В чем же фокус? А никакого фокуса нет. Тут просто используется хорошо известный корпускулярно-волновой дуализм нашего странного мира, в котором каждая частица одновременно еще и волна. В интерферометре проявляются волновые свойства фотона, а если один из его путей перекрыт бомбой, то фотон проявляет себя как частица и информация об этом может сохранить жизнь саперу.
Пример получил известность, и сразу возник вопрос: можно ли увеличить шансы сапера на выживание? В описанной схеме, подобрав коэффициент пропускания зеркал и выполнив несколько попыток в случае неопределенного ответа, можно увеличить шансы сапера обнаружить бомбу, не подорвавшись, но в лучшем случае до 50%. Это, конечно, маловато. Но почти сразу были придуманы и более изощренные устройства, в которых шансы теоретически могут быть сколь угодно близки к ста процентам. И уже в первых экспериментах, разумеется без всяких бомб, успех достигался более чем в 70% случаев. Их стали называть квантовыми измерениями без взаимодействия (Interaction-Free Measurements), или способом «видеть в темноте».
С некоторыми из таких устройств можно ознакомиться на страничке профессора Поля Квайэта. Именно он с коллегами в 1994 году предложил первое устройство для наблюдений в темноте, стажируясь в Австрии в группе известного специалиста по квантовой оптике профессора Зелингера (anton Zeilinger). Это устройство использует поляризацию фотонов и так называемый квантовый эффект Зенона (назван в честь древнегреческого философа, прославившегося своими апориями, в том числе про Ахилла и черепаху). Этот эффект иногда называют теоремой о котелке, который никак не закипит, если за ним все время наблюдать. Теорема гласит, что если состояние квантовой системы измерять достаточно быстро и часто, то она так в этом состоянии и останется, вместо того чтобы эволюционировать по законам квантовой механики. Добавив к интерферометру пластинку, вращающую поляризацию, несколько поляризационных делителей и фильтров, которые все время «измеряют» поляризацию, можно заставить его «увидеть» бомбу при сколь угодно малой вероятности ее взорвать.
Позже был предложен и целый ряд других способов «наблюдений в темноте», которые используют иные квантовые эффекты.
Можно ли утверждать, что в подобных квантовых экспериментах мы действительно обнаруживаем объект, совсем с ним не взаимодействуя? Это лишь одна из возможных интерпретаций. На самом деле взаимодействие есть. Просто его делают крайне слабым за счет увеличения количества измерений или времени эксперимента так, чтобы поглощение фотонов объектом случалось пренебрежимо редко в этом вероятностном квантовом мире.
Квантовые устройства, позволяющие «видеть в темноте», как надеются их авторы, могут быть использованы в самых тонких физических экспериментах, например для обнаружения наличия холодных атомов в ловушках. Но пока эта довольно сложная в реализации техника не получила широкого распространения. И вот теперь ее пытаются попробовать в квантовых вычислениях, надеясь, что она поможет как-то облегчить их реализацию.
КАФЕДРА ВАННАХА: Скипетр в желудке
Автор: Ваннах Михаил
Объективное развитие технологий, их ИТ-фронтира, неизбежно влияет на структуру общества. PC-Forum в 2006 году зовется «Эрозия власти: теперь главные — потребители». Неужели свершилось? Восстание масс перенесло державу со скипетром из тронного зала даже не в руки трудящихся, а в желудок потребителей. Так ли это?Прежде всего взглянем на Отечество наше. Есть один стабильно растущий (кроме потребительских цен) показатель — число миллиардеров. И просто очень богатых людей на Родине нашей хватает. Вот тут-то следует первейшее разочарование. Никто из действительно богатых, как лично известных автору этих строк, так и просто внятно описанных персонажей, ни в коей мере не ориентировался на запросы потребителей.
Применим чисто кибернетическую методику «черного ящика». Посмотрим на входы и выходы народного хозяйства России. На экспорт — прежде всего углеводороды. Затем — первый передел. Никель, медь, алюминий, чугун. Сталь. Метанол. Аммиак. И вот тут-то и лежат БОЛЬШИЕ деньги. Горные ресурсы, унаследованные от Российской империи. Инфраструктура добычи и переработки, унаследованная от СССР. Умение маневрировать в приватизационных бурях 1990-х. И все! Никаких потребителей… Перечисленные выше экспортные товары — чисто биржевые, однозначно определяемые сортностью и количеством. Находящие обезличенного покупателя. Где-то за семь морей.
Весьма сыт даже мелкий партийный чиновник. Хапнувший бывший НИИ в центре губернского города и превративший его в бизнес-центр, то есть сдаваемый в аренду по закуткам караван-сарай. Ему тоже плевать — снимет у него угол парикмахерша или компьютерная фирма. В условиях дефицита рабочих рук, вызванного исчерпанием сельского населения России, а также при высоких ценах на нефть — и бесконкурентно, и прибыльно!
Но ведь последний персонаж все же работает на рынок, на потребителей? Торговцы-арендаторы обслуживают людей и сами потребляют помещения, телефон, Интернет?
Да нет, на потребителей, как показал пожар во Владивостоке, плевать. В здании, рассчитанном на небольшое число постоянного персонала и превращенном в проходной двор, при пожаре офисным сиделицам остается только сокрушаться, что люди не летают, как птицы…
За деньги, за БОЛЬШИЕ деньги всегда дрались. Это единственное, что показывает мировая история. Сходились в лазурных волнах Средиземноморья триремы Рима и Карфагена; галеры Венеции и Генуи. Под серым небом Атлантики, в облаках порохового дыма резали строй французских кораблей британские парусники. Речь шла не об элементарном захвате ресурсов. Нет, в экономических играх побеждал не лучший игрок, но тот, кто получал возможность устанавливать правила игры. Небезызвестный пират Дж. Морган поднялся на вершину могущества не тогда, когда ограбил Панаму. Нет, богатства и власти он достиг, став губернатором Ямайки и получив возможность законно вешать бывших дружков.
Об экономической власти спорили в мировых войнах XX века. Дредноуты у Ютланда, авианосцы у Мидуэя. Формально война с Германией. Реально — между Британией с ее огражденной высокими таможенными тарифами экономикой и ориентированными на глобальный рынок США.
Реально — это одна война. Недорешенная в Версале. Искаженная Вашингтонскими морскими соглашениями[Ограничения морских вооружений 1921—22 гг.]. Спутанная вмешательством Японии (удержи та Сферу Сопроцветания, в распоряжении самураев было бы три пятых мировых ресурсов и населения планеты). Но все равно пришедшая к глобальному и почти свободному рынку.
Войны за передел собственности теперь невозможны. Ядерный тупик. Стрекот калашниковых в российских офисах 90-х — события на глубокой периферии, хотя и приносящие победителям гигантские деньги. Но и говорить о «власти потребителей» наивно.
Потребитель потребляет отнюдь не то, что хочет. «Пипл хавает» то, что ему навязывают. Подростки 70-х слушали попсу по «спидоле». Нынешние — по мобильнику. Но и тогда, и теперь — на лестнице.
А вид товара — определен доступной технологией. Развивающейся по законам, определенным Мирозданием. Навязать же товар — работа маркетологов. И хорошие деньги приносит не удовлетворение, а создание потребностей. Когда ты до этого захватил возможность оперировать на рынке.
Классические войны за богатство велись на море. Это самый малозатратный путь транспортировки, а существует всего два конкурентных преимущества — дешевизна и новизна.
Сфера нынешних войн за деньги — новизна. Их театр — коммуникации, ИТ-технологии. Предельные ограничения — скорость света, квантованность материи. Операции ведутся не танковыми армиями и эскадрами линкоров. Нет. В ходу — концепции, доктрины, образы.
Рыночная экономика (в идеале), в отличие от коммунистической или фашистской, не принуждает. Она навязывает. Так, что трудно отказаться. Навязывает операционную систему, СУБД… Выбор потребителя — результат войны концепций.
Terralab.ru: Железный поток
Автор: Александр Куприянов
Цифровая фотокамера Casio Exilim EX-Z850
матрица: 1/1,8 дюйма, 8,1 Мп
объектив: 38—114 мм (экв. 35 мм), зум 3х
цифровой зум: 8х
светочувствительность: ISO 50/100/200/400
встроенная память: 8 Мбайт
интерфейсы: USB 2.0, композитный AV-выход
разъем для карт: SD/MMC
видео: 640х480, 30 к/с
габариты: 89x58x23 мм
В камере использован процессор Exilim Engine с аппаратным блоком стабилизации изображения Anti Shake DSP, благодаря которому снижается вероятность получения смазанных снимков, и дисплей размером в 2,5 дюйма (яркость 1200 кд/кв. м), позволяющий комфортно просматривать изображение даже при очень ярком освещении. Упомянем также функцию Revive Shot, которая освежает старые, выцветшие фотографии и возвращает их к жизни, переснимая в цифровом виде и «разглаживая морщины». Технология Super Life Battery позволяет сделать до 440 снимков на одном заряде аккумулятора. С помощью белой светодиодной лампы подсветки автофокуса можно комфортно снимать фото и видео в условиях недостаточной освещенности. Цена пока не определена.
Сканеры Xerox 4800/4800ТА
оптическое разрешение: 1200x4800 dpi
область сканирования: 216х297 мм
интерфейс: USB 2.0
габариты: 432x302x66 мм
вес: 2,32 кг
Благодаря технологии Flash-Back, выполняющей сканирование за один проход, обе модели подойдут не только для домашнего использования, но и справятся с работой в небольших офисах. Пять управляющих клавиш типа One Touch позволяют переслать отсканированные изображения в программу PaperPort для редактирования; передать его по электронной почте; отправить напрямую в программу распознавания символов для редактирования текста или вывести на принтер. Пятая клавиша настраивается, ее можно запрограммировать на передачу отсканированного изображения в любое графическое, текстовое или факсимильное приложение. Xerox 4800TA оснащен встроенным адаптером для сканирования 35-мм слайдов и негативов.
Дисплей Sony MFM HT205
экран: 20 дюймов, MVA-матрица
разрешение: 1680x1050
яркость: 470 кд/кв. м
контрастность: 1600:1
время отклика: 6 мс
угол обзора: 170/170 градусов
цена: не определена
Экран этого «комбайна» изготовлен по технологии Sony X-black LCD, которая повышает яркость, контрастность и выдает цветовую гамму с естественным черным цветом (этого удалось добиться путем замены обычного антибликового покрытия специальным антибликовым фильтром с дополнительным слоем, обладающим низкой отражающей способностью). Помимо стандартных интерфейсов — аналогового (D-Sub) и цифрового (DVI-D) — монитор снабжен еще тремя видеоинтерфейсами: S-Video, компонентным и Scart (RGB). Благодаря поддержке стандарта DVI-HDCP новая «Соня» позволяет смотреть защищенное от копирования видеоизображение. В монитор встроена акустическая стереосистема мощностью по 3 Вт на канал с технологией объемного звучания SRS WOW, а также пятиваттный сабвуфер. TV—тюнер поддерживает режим PIP («картинка в картинке») и телетекст.
Объектив Сanon EF-S 17-55mm f/2.8 IS USM
фокусное расстояние: 27—88 мм (экв. 35 мм)
минимальное расстояние фокусировки: 35 см
диаметр фильтра: 77 мм
конструкция: 19 элементов в 12 группах
габариты: 83x110 мм
вес: 645 г
Объектив, продолжающий линейку IS USM, оснащен трехступенчатым стабилизатором изображения и ультразвуковым мотором с постоянным крутящим моментом, предназначенным для высокоскоростной и практически бесшумной автофокусировки. Для повышения резкости и улучшения качества цветопередачи путем устранения хроматических и сферических аберраций во всех областях кадра используются два UD-элемента (линзы с ультранизкой дисперсией) и две асферические линзы, а также специальное покрытие Super Spectra, уменьшающее отражающий эффект линз. Новинка предназначена для использования с камерами, оснащенными креплением для объективов серии EF-S, таких как EOS 30D, и другими моделями с датчиком размера APS-C.
Видеокамера Сanon DC40
матрица: CCD 1/2,8 дюйма, 4,29 Мп
цифровой зум: 200x
минимальное расстояние фокусировки: 10 мм
экран: 2,7 дюйма, 16:9, 123 000 пикселов
габариты: 60x87x126 мм
вес: 480 г
цена: не определена
Новая широкоформатная (16:9) камера, оснащенная объетивом с десятикратным зумом (44,5—445 мм), осуществляет запись видео MPEG-2 прямо на DVD-болванку формата -R/-RW, а встроенный процессор DIGIC DV обеспечивает раздельную обработку видео— и фотоизображений, сохраняемых на карте памяти Mini SD. Сanon DC40 имеет интерфейс USB, поддерживает стандарт прямой печати PictBridge, а для просмотра изображений на обычных телевизорах оснащена режимом съемки в формате 4:3.
Системная плата MSI 975X Platinum
Socket 775 для процессоров Intel Pentium 4, Pentium 4EE, Pentium D, Pentium XE и Celeron D
чипсет Intel 975X Express
поддержка FSB 1066/800 МГц
поддержка памяти DDR2, 667 МГц, до 8 Гбайт
Gigabit LAN
габариты: 305x245 мм, форм-фактор ATX
Материнская плата оснащена двумя разъемами PCI Express x16 (16+16) и позволяет работать с парой видеокарт, поддерживающих технологию Cross-Fire. Встроенный аудиокодек формата 7.1 HD Audio может выводить цифровой аудиосигнал через оптический и коаксиальный интерфейсы, а поддержка технологии CoreCell позволяет следить за параметрами всей системы и точно настраивать напряжение, подаваемое на процессор, скорость вращения вентиляторов и в тоже время обеспечивает автоматическую загрузку новых версий BIOS и драйверов с помощью программы Live Update 3.
Мобильный телефон Sony Ericsson К610
стандарты: GSM 900/1800/1900 МГц, UMTS 2100 МГц
дисплей: 1,9 дюйма, 262 000 цветов, 220х176
фотокамера: 2 Мп, цифровой зум 2х
фронтальная VGA-камера для видеотелефонии
встроенная память: 20 Мбайт
габариты: 102х45х17 мм
вес: 92 г
В телефон встроен МР3-плейер с возможностью воспроизведения файлов MP3, AAC, E-AAC+, MPEG-4 и 3GPP. Поддерживается работа с картами памяти Memory Stick Micro (M2) объемом до 1 Гбайт. Мобильник оснащен Java (MIDP 2.0), поддерживает Mascot Capsule 3D Micro Engine и Java 3D, имеет аудиоредактор MusicDJ, видеоредактор VideoDJ и почтовый клиент (SMTP/POP3). При желании можно просматривать веб-страницы (через браузер NetFront Access) и RSS-лент. Синхронизация с ПК осуществляется по интерфейсам IrDA, Bluetooth или mini-USB. Новинка оснащена 72-голосной полифонией и может использовать MP3-файлы в качестве звонка. Время работы — до 7 часов в режиме разговора и 400 часов в режиме ожидания.
Цифровая фотокамера Sony Cyber-shot DSC-H5
матрица: 1/2,5 дюйма, 7,2 Мп
максимальное разрешение снимка: 3072x2304
светочувствительность: ISO 80/100/200/400/800/1000
интерфейсы: USB, композитный AV-выход
дисплей: 3 дюйма, 230 000 пикселов
габариты: 107x81x91 мм
вес: 438 г
Новинка, построенная на базе объектива Carl Zeiss Vario-Tessar с 12-кратным оптическим зумом и фокусным расстоянием 36—432 мм (экв. 35 мм), снабжена оптическим стабилизатором изображения SteadyShot, а также технологией уменьшения шумов Sony’s Clear RAW. Встроенная память (32 Мбайт) может быть расширена при помощи карт памяти Memory Stick Duo или Memory Stick Duo PRO. Возможна ручная установка баланса белого, съемка видео в формате 640x480 со скоростью 16 или 30 к/с. Заряда аккумулятора хватает на 340 снимков.
Мобильный телефон Nokia 6125
стандарт: GSM 850/900/1800/1900 МГц
внутренний дисплей: 1,8 дюйма, 262 000 цветов, 128х160
внешний дисплей: 1,4 дюйма, 65 536 цветов, 96х65
встроенная память: 11 Мбайт
разъем для карт памяти microSD
интерфейсы: Bluetooth, USB 1.1, IrDA
габариты: 90х46х23 мм
вес: 98 г
цена: не определена
Телефон имеет встроенную камеру 1,3 Мп (разрешение снимков 1280х1024) c отдельной кнопкой спуска затвора и 8-кратным цифровым зумом. Дисплеи могут использоваться в качестве видоискателей: большой дисплей — для съемки обычных снимков; маленький внешний дисплей — для автопортретов. Встроенный музыкальный проигрыватель поддерживает форматы MP3, MP4, AAC, AAC+, eAAC+ и WMA (Windows Media Audio). Имеется FM-радиоприемник, поддерживающий стереозвук, и клиент Visual Radio. В качестве звонка и уведомлений можно использовать файлы MP3, AAC, MIDI и полифонические мелодии, а также видеоклипы. Запись видео осуществляется в формате 176х144 со скоростью 15 к/с. Телефон позволяет работать с клиентом электронной почты (IMAP4, POP3, SMTP) с поддержкой вложений. Время работы в режиме разговора — до 5 часов, в режиме ожидания — до 280 часов.
Мобильный телефон Samsung Z710
стандарты: GSM 900/1800/ 1900 МГц, UMTS 2100 МГц
внешний дисплей: 1,1 дюйма, 65 000 цветов, 96x96
внутренний дисплей: 2,15 дюйма, 262 000 цветов, 320х240
64-голосная полифония
габариты: 96х48х20 мм
вес: 107 г
цена: не определена
Арсенал новинки впечатляет: 3,2-Мп камера со вспышкой, FM-приемник, МР3-плейер с возможностью воспроизведения файлов формата MP3, AAC, AAC++, WMA и эквалайзером. Встроенная память объемом 128 Мбайт наращивается при помощи карт памяти формата microSD. Синхронизация с ПК осуществляется по интерфейсам USB, Bluetooth, IrDA. Телефон работает под управлением операционной системы Symbian Series 60. Программа Pixel Viewer позволяет просматривать файлы MS Word, Exсel и PDF, а функция Voice Clarity улучшает качество воспроизведения речи.
Цифровая фотокамера Ricoh Caplio RR630
матрица: 1/1,8 дюйма, 6,1 Мп
объектив: 36—108 мм (экв. 35 мм), зум 3х
цифровой зум: 4х
максимальное разрешение снимка: 2848х2136
дисплей: 2,0 дюйма, 130 000 пикселов
интерфейс: USB 1.1
питание: два элемента типа АА
габариты: 91х61х27 мм
вес: 150 г
По сравнению с предыдущей моделью RR530 в RR630 и установлена матрица больших размеров и другой объектив. Встроенная память (16 Мбайт) может быть увеличена за счет карт памяти формата SD/MMC. Минимальная дистанция фокусировки 50 см (макро — от 6 см). Видеозапись ведется с разрешением 320х240 и скоростью 24 к/с. Светочувствительность ISO ограничена тремя значениями: 64, 100, 200, что не позволит использовать камеру в темное время суток. Диапазон выдержек — от 1/2000 до 1 с.
Ноутбук Lenovo 3000 C100
процессор: Intel Celeron M 370 1,50 ГГц, FSB 400 МГц
чипсет: Intel 915 GM
дисплей: 15 дюймов, 1024x768
оперативная память: DDR2 4200, 512 Мбайт — 2 Гбайт
жесткий диск: 80 Гбайт
габариты: 333х277x33 мм
вес: 2,86 кг
Благодаря интегрированному видеоадаптеру Intel Graphics Media Accelerator 900 и наличию практически всех сетевых интерфейсов (WiFi-адаптер 802.11 a/b/g, Bluetooth, а также 10/100 Мбит Ethernet-адаптер и модема), ноутбук подходит для использования в качестве мобильного офиса. C100 оборудован картридером, четырьмя USB-портами, двумя слотами Firewire, S-Video-интерфейсом, стереосистемой (две колонки по 1 Вт) со встроенным микрофоном и COMBO— или DVD-ROM-приводами. Длительность работы от восьмиблочной литий-ионной батареи — до 5 часов.
Мобильный телефон Motorola W220
дисплей: CSTN, 1,5 дюйма, 128x128, 4096 цветов
поддержка: Java MIDP 2.0, WAP 2.0
габариты: 46x95x16 мм
Бюджетный ($200) аналог модели RAZR внешне почти не отличается от нее. Так же как и RAZR, W220 выполнен в плоском корпусе с внутренней антенной, но значительное сокращение возможностей позволило сделать аппарат доступным более широкому кругу покупателей, нежели по-прежнему дорогой флагман. Новинка имеет интегрированный FM-приемник и фонарик. Время работы от батареи — 8 часов в режиме разговора и 293 часа в режиме ожидания.
Ноутбук RoverBook Explorer W700
процессор: Mobile AMD Turion 64 MT-xx или Mobile AMD Sempron 3000+…3400+
чипсет: ATI Radeon Xpress 200 (ATI RX480M + S450)
экран: 17 дюймов, 16:10, 1440x900
видеоадаптер: ATI Mobility Radeon X700 (память 256 Мбайт)
жесткий диск: от 60 до 120 Гбайт
оперативная память: до 2 Гбайт
габариты: 395х278х31 мм
вес: 3,44 кг
Ноутбук пригоден как для решения офисных задач, так и для запуска ресурсоемких приложений, игр и видео. Опционально встраивается веб-камера с разрешением 1280x960 и ТВ-тюнер DVB-T. Explorer W700 снабжается оптическим приводом COMBO или DVD±RW, а также устройством чтения/записи карт памяти форматов SD/MMC/MS/MS Pro/XD. Время работы от литий-ионного аккумулятора емкостью 47 Вт·час — 90 минут.
МР3-плейер MPIO HD400
встроенная память: 8 Гбайт
дисплей: 1,8 дюйма, 220х176
габариты: 52x93x15 мм
вес: 108 г
Плейер с русскоязычным меню позволяет с помощью конвертирования проигрывать видеофайлы форматов MPEG-4, WMV, AVI, DivX, а также поддерживает музыкальные форматы MP3, WMA, ASF и Ogg Vorbis. Он снабжен FM-радиоприемником, часами и диктофоном, умеющим записывать с радио. Литий-полимерный аккумулятор обеспечивает до 15 часов непрерывной работы. Данные передаются по интерфейсу USB 2.0, поддерживаются технологии защиты цифровой информации (DRM) JANUS и PD.
Ноутбук Fujitsu Siemens Lifebook Q2010
процессор семейства Intel Core Duo
чипсет: Intel 945GMS / ICH7-M
видеоадаптер: Intel 945GMS with 32-bit 3D/2D
оперативная память: до 1 Гбайт, DDR2-400
дисплей: 12,1 дюйма, 1280x800
жесткий диск: 60 Гбайт
габариты: 297x219х18 мм
вес: 1 кг
Производитель позиционирует новинку как мобильный спутник для менеджеров и руководителей, много времени проводящих в поездках. Отличительная черта модели — встроенный модуль для подключения к сотовым сетям UMTS и поддержка работы в сетях VoIP (IP-телефония) с помощью встроенных направленных микрофонов. Ограничить доступ к работе с ноутбуком можно благодаря встроенному сенсору отпечатков пальцев, а обезопасить информацию позволяет ПО SmartCase Logon+ и модуль TPM 1.2. Также в Lifebook Q2010 устанавливаются сетевой контроллер Gigabit Ethernet, контроллеры для подключения к беспроводным сетям Bluetooth и Wi-Fi, слот для флэш-карт стандарта Secure Digital и стереофонические динамики.
ТЕХНОЛОГИИ: Intel 2006
Автор: Сергей Озеров
В 2005 году рыночная судьба складывалась для Intel не слишком благополучно. Несмотря на то что корпорация удерживает большую часть рынка x86-процессоров, а также остается технологическим лидером в области полупроводниковых производств, целая серия не очень удачных решений на фоне чрезвычайно успешной продуктовой линейки конкурента привела к тому, что в некоторых сегментах на первые роли вышла AMD.
К концу 2004 года, по данным Mercury Research, компания AMD контролировала 14,7% мирового рынка x86-совместимых процессоров. К концу 2005 года — 16,6%. К концу 2006 года — 21,4%. При этом, если рассматривать наименее консервативные сегменты рынка, то окажется, что, к примеру, в США доля проданных настольных компьютеров с процессорами AMD уже в сентябре превысила 52% при чувствительном падении доли ритейлового рынка Intel с 68 до 46%. В октябре доля AMD дошла до 67,7%, и Intel в розничной продаже перестали спасать даже ноутбуки. Эти цифры могли быть и больше, если б не дефицит недорогих процессоров Advanced Micro Devices, вынужденной выпускать всю свою процессорную продукцию (причем с разными технологическими процессами) на одной-единственной фабрике Fab 30, работающей со старыми 200-мм пластинами. Но увы, история не терпит сослагательного наклонения. AMD, прекрасно понимая это, наконец-то запускает современный завод Fab 36 в Дрездене, работающий с 300-мм пластинами, и готовится передать часть производства процессоров компании Chartered Semiconductors. Пока — только изготавливаемых по 90-нм техпроцессу, однако даже это должно снизить остроту проблемы недостаточных мощностей. Сумеет ли компания занять через год-два треть мирового рынка — покажет время, но, в общем-то, все основания к тому у нее имеются.
Впрочем, беспокоиться за судьбу Intel с ее десятимиллиардными доходами пока рановато -корпорация успешно выбиралась и из куда более глубоких ям. Располагая одним из крупнейших и дорогостоящих R&D[Research and Development]-подразделений и колоссальными производственными мощностями[Одиннадцать полупроводниковых фабрик в США, Израиле и Ирландии, семь заводов по корпусировке и тестированию микросхем в Азии, причем наполовину переведенных на работу с 300-мм пластинами], полупроводниковый гигант, упорно придерживавшийся «генеральной линии партии» под названием архитектуры NetBurst/Pentium 4 и продвигавший свои решения (вроде IA-64/Itanium) на фоне более удачных находок конкурента, наконец дрогнул и сделал переоценку рыночных перспектив различных процессоров. Итогом этого шага стало множество событий: отмена разрабатывавшегося следующего поколения процессоров Intel (кодовое название Tejas), отмена процессоров с тактовыми частотами выше 3,8 ГГц (за что CEO Intel Крейг Баррет прилюдно извинился), введение поддержки технологии x86-64 под названием EM64T и поддержки XD-бита. Но что еще важнее — корректируя текущую линейку продуктов и борясь с конкурентом путем существенного снижения цен на свою продукцию, Intel весь прошлый год активно готовилась к большим переменам. И похоже, подготовительный период уже завершен — поскольку минувшей зимой корпорация обрушила на нас лавину самых фантастических новостей и анонсов.
Ребрэндинг Intel
Самым заметным и впечатляющим явлением происходящих в Intel перемен, безусловно, стал полный ребрэндинг ее знаменитой торговой марки. Скажите «до свидания» продержавшемуся шестнадцать лет слогану Intel Inside и маленькой букве "e" в слове Intel, сохранившейся с конца 60-х, когда компания называлась Integrated Electronics. Отныне Intel становится просто Intel и не столько Inside, сколько Leap Ahead — то есть «на шаг впереди». Я, конечно, не дизайнер и не маркетолог, так что спорить с утверждением, что новые логотипы смотрятся красивее и современнее, пожалуй, не буду: в конце концов, с 70-х и даже с 90-х годов многое успело измениться. Но стоимость брэнда Intel с его неизменным «инсайдом» все-таки составляла в прошлом году 35 млрд. долларов[Пятое по стоимости в мире — после Coca-Cola, Microsoft, IBM и General Electric], и к нему все уже так привыкли, что, боюсь, далеко не все смогут по достоинству оценить новации и за «лип ахедом», диковато звучащим для российского уха, уже не пойдут с той же охотой, как за «интел инсайдом». «Пентиумы», кстати, через некоторое время тоже исчезнут — их заменят другие названия, вроде Core Solo (для одноядерных процессоров) и Core Duo (для двухъядерных). Привычка — страшная сила, и Intel Inside пополам с Pentium на многих действовало как заклинание. Но то ли доверие к этой марке из-за неудачных 90-нм Pentium 4 и Pentium D было подорвано, то ли покупатели перестали пугаться аббревиатуры AMD, то ли маркетологи, посмотрев на то, как все хорошо у Intel получается, решили сделать еще лучше… кто знает?
Впрочем, бог с ним, с логотипом: помучаемся годик и привыкнем. Гораздо интереснее, как изменяется с его появлением позиционирование брэнда. Если раньше марка Intel Inside ассоциировалась в массовом сознании с быстродействием и надежностью, то в новом брэнде упор делается на… эмоциональность. Проще говоря, маркетологи постараются, чтобы новые процессоры Intel считались модными, а продукты на их основе — культовыми, благо ассортимент продукции у Intel широкий (так и представляю себе эту картину маслом, когда зимой модно покупать процессоры Pentium D, летом — Pentium 4, а осенью и весной — Pentium M и Core Duo). Впрочем, «Пентиумов» к тому моменту может и не быть, — но маркетинговый отдел Intel наверняка изобретет что-нибудь взамен. Разумеется, я утрирую, но если честно, подобный способ продажи продукции меня слегка пугает: неужели мы до такой степени перестали думать и рассуждать? Хорошо еще, что волна «iPod-мании», которую Intel называет отличным примером создания и раскрутки «эмоционального брэнда», до России пока не докатилась.
Но хватит о современных методах рекламы. Желающие могут заглянуть на преобразившийся , еще недавно столь похожий на . Пора переходить от способов продажи процессоров к заложенным в их основу технологиям.
Conroe
После отмены проекта Tejas, в рамках которого планировалось разработать процессор архитектуры NetBurst с баснословно длинным 51-стадийным конвейером, перехватившим бы у сегодняшних Pentium 4 эстафету «гонки частот» на рубеже 5—6 ГГц, весь мир замер в ожидании — что же будет анонсировано взамен? Полный цикл разработки принципиально новой процессорной архитектуры занимает до пяти-шести лет, а этого времени у Intel уже не было. Так что единственным подходящим кандидатом, годившимся на роль «основы» для будущего CPU, могла послужить только «предыдущая» архитектура, известная как P6, впервые представленная еще в древних Pentium Pro и в доработанном виде использовавшаяся в мобильных Pentium M. Правда, невзирая на высокую производительность P6 на единицу тактовой частоты и довольно скромное энергопотребление, на роль спасителя Intel эта архитектура в ее изначальном мобильном варианте не годилась[Не просто же так вместо нее NetBurst внедряли], хотя бы из-за относительно низкой FP-производительности (вычислений с плавающей точкой). Ходили также слухи, что Intel не устраивала перспектива отказа от раскрученной технологии Hyper-Threading (которой в P6 не было и быть не могло)[Де-факто же получилось, что от Hyper-Threading в Intel потихоньку отказались в пользу многоядерности: новые Pentium D 8xx и 9xx, за редкими исключениями, эту технологию уже не поддерживают]. Словом, P6 и Pentium M требовалось как-то «доработать», создав если не принципиально новую архитектуру, то хотя бы заимствующую наиболее удачные разработки Pentium M и лишенную ее основных недостатков. И, как ни странно, подобная архитектура (под кодовым названием Merom) в недрах R&D-отдела нашлась — ею на тот момент занималось «второстепенное» исследовательское подразделение Intel в Израиле.
Все-таки глобализация — великое изобретение человечества. Все основные достижения Intel («тонкие» техпроцессы, процессорные архитектуры от i8086 до i486, Pentium, P6, и NetBurst) до сих пор были сделаны американцами, но оказалось, что израильские разработчики умеют делать процессоры ничуть не хуже своих заокеанских коллег, а во многих отношениях — и гораздо лучше. Срочно переориентированный из сугубо мобильной ниши в «общезначимую», Merom получил еще две инкарнации — «настольный» Conroe[Строго говоря, ядром Conroe будет наделен только двухъядерный процессор с 4 Мбайт кэш-памяти L2. Тот же двухъядерник с урезанной до 2 Мбайт кэш-памятью будет основан на ядре Allendale; построенный на той же архитектуре одноядерник с 1 Мбайт кэш-памяти — на ядре Milville, но, дабы не запутать читателя десятками кодовых имен, для всей этой троицы, а заодно и для ядер Merom и Woodcrest я буду использовать «собирательное» обозначение Conroe] и серверный Woodcrest. Все они будут многоядерными, с одной и той же архитектурой и на первых порах будут изготавливаться по 65-нм техпроцессу.
Обычно Intel трудно обвинить в разговорчивости: техническая информация, касающаяся ее будущей продукции, подается микроскопическими дозами. Однако Merom-Conroe-Woodcrest (или, для краткости, просто Conroe) сейчас так нужен Intel, что порой кажется, будто эти процессоры начнут продаваться уже завтра — столь детально определены их спецификации. Основных изменений в архитектуре P6 по сравнению с Pentium M будет три:
Во-первых, будет сильно переделан главный конвейер. Сохранив некоторые черты конвейера P6 (в частности, Reservation Station), Conroe сможет выполнять не две, а четыре инструкции за такт, причем, в отличие от Pentium 4 (также способного выполнять до четырех инструкций за такт), — в «устоявшемся» режиме и для большего числа x86-инструкций.
Во-вторых, обещают улучшить одно из узких мест P6 — относительно слабый (по сравнению с Pentium 4 и AMD Athlon) блок вычислений с плавающей точкой. К сожалению, информации на сей счет пока маловато, что косвенно свидетельствует о том, что революции здесь не случится.
В-третьих, многоядерные процессоры будут основываться на технологии, общей для всех ядер кэш-памяти второго уровня. Собственно, эта новинка уже «отрабатывается» на новых мобильных процессорах Yonah (Core Duo/Core Solo), но об этом мы подробнее поговорим в другой статье номера, посвященной ноутбукам.
В-четвертых, в ядро введут технологию виртуализации Intel VT, поддержку EM64T и наверняка что-то еще из грядущей LaGrande.
Каждое из трех первых новшеств, взятое по отдельности, способно обеспечить небольшой, но уверенный прирост производительности на мегагерц хотя бы 10—15%; взятые же вместе и дополненные четвертым пунктом, они потенциально могут стать тем самым Vergeltungswaffen["Оружие возмездия" (нем.)], которое нужно Intel для отвоевывания утерянных позиций. Тем более что по многочисленным «утечкам» информации известны и тактовые частоты грядущих семейств. Для Conroe обещают двухъядерные процессоры, работающие на частоте 1,86 ГГц (E6300, $209) и 2,13 ГГц (E6400, $240), с кэш-памятью 2 Мбайт и на частоте 2,40 ГГц (E6600, $316) и 2,67 ГГц (E6700, $530) с кэш-памятью 4 Мбайт. Все они будут использовать быструю 1066-МГц шину QPB, которая сегодня встречается только в самых дорогих процессорах Pentium Extreme Edition. Наверняка будут и «промежуточные» модели, а также удешевленные модификации с меньшим объемом кэш-памяти и меньшей частотой. Серверные Woodcrest получат частоты 1,60 ГГц (Xeon 5110, 230$), 1,86 ГГц (5120, 270$), 2,00 ГГц (5130, 330$), 2,33 ГГц (5140, 470$), 2,66 ГГц (5150, 700$) и 3,00 ГГц (5160, 850$), кэш-память L2 объемом 4 Мбайт и совершенно фантастическую шину на 1333 МГц. Кроме того, в январе ходили слухи о моделях Conroe и на частоты 2,93 и 3,2 ГГц с кэш-памятью 2 Мбайт, а также о некоем Conroe Extreme Edition с частотой 3,33 ГГц, с кэшем L2 в 4 Мбайт, хотя в их появление в третьем квартале этого года верится с трудом. Спору нет, даже «простой» Pentium M, разогнанный до 3,33 ГГц, представляет собой чрезвычайно производительное решение, и что сможет показать на этих частотах улучшенный Conroe с быстрой шиной, даже представить страшно. Но вспомним историю — поначалу (а порой и весьма длительное время) процессоры новых семейств почти всегда не обгоняли, а то и вовсе уступали своим «устаревшим», но хорошо отлаженным родственникам. Сегодня Intel хладнокровно обещает в своих кристаллах обеспечить преимущество над «процессорами конкурента» не менее 30% (а стало быть, еще большее — над своими), но к чему относится это расплывчатое обещание и будет ли оно выполнено, покажет только время.
Быстрее, меньше, холоднее…
Intel, с ее многочисленными фабриками и колоссальными доходами, всегда славилась инженерами-технологами. «Тонкие» техпроцессы, новые материалы, усовершенствованные степпинги появлялись у нее и раньше, и быстрее, чем у конкурентов, и корпорация своим преимуществом активно пользовалась. Текущий год не стал исключением — и пока в AMD осторожно заявляют о начале поставок 65-нм процессоров в начале 2007 года, Intel демонстрирует сэмплы изготовленных по 45-нм технологическому процессу модулей SRAM, продает полный спектр 65-нм процессоров и сворачивает «устаревшее» 90-нм производство.
Новый техпроцесс получил вполне привычное название — P1264 (до того использовался 90-нм P1262, а еще раньше — 130-нм P1260), привычные производственные материалы и привычное производственное оборудование — ультрафиолетовые литографические инструменты на основе 193-нм лазеров. Даже в 90-нм P1262 разнообразных технологических новшеств было больше (что уж говорить о принципиально новом P1260) — однако в P1264 удалось обойтись без особых ухищрений, ограничившись лишь небольшими улучшениями и усовершенствованными фазосдвигающими масками. Среди улучшений — переход к использованию в качестве электропроводящего материала силицида никеля (NiSi) и слегка доработанная технология «напряженного кремния», позволяющие снизить (в первом случае — за счет уменьшения электрического сопротивления, а во втором — за счет большего рабочего тока при тех же токах утечки) тепловыделение кристалла. А вот толщину изолирующего оксидного слоя в новом техпроцессе изменять, как это делалось раньше, не стали, сохранив ее на уровне 1,2 нм. Кроме того, в кристалл, ранее насчитывавший семь слоев, добавлен восьмой слой[В свое время AMD за счет этого дополнительного слоя сделала из неудачного, горячего и плохо масштабировавшегося по частоте 130-нм Throughbred-A отличный 130-нм Throughbred-B], позволяющий повысить плотность электрических контактов, скорость распространения электрических сигналов и снизить «межконтактную» емкость. Собрав эти «мелочи» вместе, технологам удалось совершить маленькое чудо: сохранив все преимущества «тонкого» технологического процесса — уменьшить токи утечки кристалла почти вчетверо! И это еще не все: рабочий ток затвора возрос на 10—15%, а электрическая емкость уменьшилась на 20%, что, по словам представителей Intel, обеспечивает почти 30—40-процентный прирост тактовых частот! Заодно всюду, где только можно, внедрили технологию «спящих транзисторов», отключающихся от питания, когда они не используются. Жестокие уроки непрерывно[В продаже успели побывать степпинги C0, D0, E0 и N0, а теперь вот и R0 подоспел…] оптимизировавшегося по тепловыделению сложнейшего ядра Prescott, очевидно, не прошли даром.
Тем не менее, заполучив в свое распоряжение прогрессивный техпроцесс, сильно изменять ядро Pentium 4 Prescott в связи с «похоронами» NetBurst разработчики не стали. Новые ядра (кодовое название CedarMill) «официально» получили кэш-память объемом 2 Мбайт, технологию виртуализации Intel Virtualization Technology (VT-x, aka Vanderpool) и сниженный с 14 до 12 минимальный множитель. Причем (сюрприз, сюрприз!) в степпингах E0 и R0 «старичка» Prescott мы все это уже видели. Даже тактовые частоты, несмотря на явный задел, поднимать не стали: для одноядерных CedarMill верхним пределом сегодня стала частота 3,6 ГГц (понижена с прежних 3,8 ГГц Prescott), а для двухъядерных Presler — 3,55 ГГц (повышена с 3,20 ГГц Smithfield). По сути, почти весь созданный новым технологическим процессом задел для повышения тактовой частоты (а если слова о 40% увеличения быстродействия транзисторов правдивы, то новые Pentium 4 могли бы постепенно достичь 5 ГГц) так и остался неиспользованным (хотя оверклокеры будут счастливы) — Intel улучшила лишь результаты откровенно провального Pentium D 3,20 ГГц. Отчасти это вызвано желанием снизить тепловыделение (в первом приближении оно пропорционально частоте), а отчасти «политическими» мотивами: все-таки NetBurst, при всех своих недостатках, была невероятно прогрессивной архитектурой, и грядущий «суперпроцессор» Conroe мог бы и не догнать «второй Northwood», неожиданно преодолевший технологические проблемы[А вот в Conroe, похоже, из 65-нм выжмут все, что только можно. И похоже, что ценой традиционно немаленького тепловыделения изначально «мобильного» чипа]. Вдобавок, похоже, что увеличенный до 4 Мбайт (2+2) кэш двухъядерников сыграл-таки негативную роль, поскольку снижения TDP для двухъядерных процессоров так и не произошло: оно по-прежнему составляет 130 Вт у старших моделей. Правда, измерения показывают, что новый 955-й Pentium Extreme Edition значительно экономичней прежнего лидера — 840-го (возможно, оценка в 130 Вт для предыдущего поколения была «слегка» оптимистична?), хотя и рассеивает тепла раза в полтора больше, чем сопоставимое по производительности решение конкурента. Так или иначе, на 10—20% тепловыделение новых процессоров снизили — и прекрасно.
Еще один немаловажный момент, связанный с новым технологическим процессом, -заметно возросшая производительность (в смысле — количественные возможности по выпуску процессоров с одной пластины) и пропорционально снизившаяся себестоимость производства. Площадь одноядерного CedarMill (с двухмегабайтным кэшем!) уменьшилась до скромнейших 81 кв. мм, мало того — новые двухъядерники, в отличие от ядра Smithfield, «собираются» из двух независимых ядер CedarMill в одном корпусе. В принципе, Smithfield и так был не более чем объединением двух ядер Prescott, но их приходилось делать в виде единого кристалла. Ну а теперь, похоже, нашелся удобный способ независимой упаковки двух кристаллов в один процессор. Кстати, Presler (это не отдельное ядро, а два CedarMill) станет не единственным процессором, использующий эту технологию: ближе к 2007 году похожим образом Intel собирается выпускать четырехъядерные процессоры, упаковывая по два двухъядерных кристалла. «Двойная упаковка» очень технологична (не нужно одновременно производить два типа кристаллов, меньше влияние возникающих дефектов, больше выход с одной пластины) и, в принципе, позволяет Intel легко перевести в 2006 году большую часть своих процессоров на использование двух ядер. Или, как вариант, сильно снизить цены на свою продукцию, и без того продающуюся недорого. «Продержаться» до выхода Conroe тоже как-то необходимо, а AMD, несмотря на сократившийся разрыв в производительности двухъядерных процессоров, пальму первенства по быстродействию и тепловыделению уступать в ближайшие полгода явно не намерена.
В мобильном секторе все гораздо сложнее. Новые 65-нм процессоры (кодовое название Yonah[Строго говоря, есть несколько разных Yonah. По числу ядер есть Yonah1 и Yonah2; а ближе к 2007 году, возможно, под названием Stealey выйдет и «дешевый» одноядерный Yonah1 с урезанной до 512 Кбайт кэш-памятью L2]) — впервые в мире мобильных CPU — являются двухъядерными, причем построенными на основе прогрессивной технологии, общей для двух ядер кэш-памяти второго уровня. Правда, два ядра — это удвоенное тепловыделение, которое трудно компенсировать даже более тонким технологическим процессом, поэтому при работе ноутбука от батарей процессор незаметно «превращается» в одноядерный, если мощность второго ядра не требуется. Добавили в процессор и поддержку технологии виртуализации Intel VT-x. Правда, кэш-память второго уровня увеличивать по сравнению с предыдущим поколением Dothan не стали — она так и осталась равной 2 Мбайт, что для одноядерных, что для двухъядерных вариантов. Заодно процессоры получили новую систему маркировки, а соответствующая платформа (Centrino третьего поколения) была названа Napa.
Серверные системы
Далеко не везде от процессора требуется очень высокая производительность. Особенно если речь идет о производительности в вычислениях с плавающей точкой (FP). Например, Itanium в таких вычислениях несомненный лидер — и где x86, а где Itanium[На то, конечно, есть и другие важные причины, но…]? Зато частенько требуется обеспечить небольшое тепловыделение, причем как для ноутбуков, так и для настольных систем и, что самое парадоксальное, серверов. Парадоксальное — потому что для серверов, в принципе, не слишком важны тишина и сложность системы охлаждения — сервер все равно стоит в отдельном, а зачастую — и в специально кондиционируемом помещении[А завтра, глядишь, и к системе фреонового охлаждения подключать начнут. Вроде той разработки крупной российской компании Kraftway, о которой мы рассказывали в прошлогоднем #46]. Однако усиливающееся влияние кластерных систем диктует свои законы — и сегодня «в моде» блейд-серверы и прочие «тонкие» одно-двухъюнитовые решения, позволяющие установить в одну стойку множество небольших однотипных серверов. Желательно двух-, а еще лучше — четырехпроцессорных. И поскольку это совсем недорого — двухъядерных. Помножьте 130 (если не 180) ватт TDP двухъядерных Xeon на два сокета и 42 сервера в стойке — и представьте себе задачу энергоснабжения и последующего отвода более 12—16 кВт мощности. Особенно если таких стоек — целый зал. Нужно ли после этого удивляться, что располагающая более чем двумястами тысячами серверами Google решила расширить свою базу за счет серверов, построенных на процессорах AMD.
Впрочем, методики решения подобных «небыстрых, зато холодных» задач давным-давно отработаны и сводятся к использованию ноутбучных процессоров в несвойственных им системах. К примеру, новые десктопные системы от Apple используют процессоры Core Duo. С серверными процессорами так же просто поступить невозможно — они требуют специальной инфраструктуры, сертификации, чипсетов и, главное, возможности работать в многопроцессорных конфигурациях. Однако особого труда для Intel подобная адаптация, похоже, не составляет, так что уже в самое ближайшее время мы увидим серверную модификацию Core Duo на ядре Yonah в виде низковольтных семейств процессоров Xeon LV и Xeon ULV (ядро Sossaman). Работая на частотах порядка 1,67—2,0 ГГц, они не будут блистать производительностью и не будут поддерживать 64-битные расширения, — зато будут обладать более чем конкурентоспособными тепловыми пакетами в 31 и 16 Вт соответственно против 60/30 Вт у HE (и EE — модификаций Opteron[У Intel и AMD методики измерения тепловыделения CPU отличаются (Intel указывает типичное тепловыделение, AMD — максимальное), так что прямое сравнение TDP некорректно]). Выходящая в середине нынешнего года серверная ипостась Conroe — ядро Woodcrest — столь же низким тепловыделением похвастать не сможет, так что линейка Sossaman’ов в исполнении Socket 479, похоже, обречена на долгое пребывание на рынке.
В секторе «не-столь-компактных» систем дела обстоят проще: на смену текущему (прямо скажем, не слишком удачному) двухъядерному процессору Intel Xeon «Paxville», должен прийти заметно более производительный и менее горячий 65-нм эквивалент Presler под кодовым названием Dempsey. Обладая вдвое увеличенным кэшем L2, а также более быстрой 1066-МГц системной шиной, Dempsey обещает стать весьма интересным продуктом. Заодно с Paxville Dempsey вытеснит и одноядерный Xeon DP «Irwindale». В секторе MP-процессоров (4-сокетные системы и выше) на смену ядру Potomac (серверный аналог ядра Prescott с 1-Мб L2 и 8-Мб L3) придет сложнейший двухъядерный 65-нм процессор Tulsa с 16 Мбайт общей кэш-памяти L3. В отличие от других своих двухъядерных 65-нм собратьев Tulsa будет выполнен в виде одного кристалла (сказывается общий L3) с громадной площадью 435 кв. мм. 1,33 млрд. транзисторов — это не шутка. Хотя ему далеко до другого «долгостроя» — двухъядерного Itanium 2 «Montecito» (1,72 млрд. транзисторов, 595 кв. мм). Что за проблемы с этим чудом техники, насчитывавшем, помимо двух ядер, поддерживавших своеобразную[Нет, это не Hyper-Threading для Itanium 2, хотя формально технологии и похожи. Temporal Multi-Threading, или Helper Threads, основывается на несколько других принципах] многопоточность (по два потока на ядро), 24 (12x2) мегабайта кэш-памяти L3 и производящимся по 90-нм технологическому процессу, приключились у Intel — неизвестно, но то что они были — несомненно. Montecito изрядно опоздал с выходом на рынок и «слегка» подрастерял свои тактовые частоты и заявленные поначалу «фичи». Впрочем, это все равно очень хороший процессор с впечатляющей производительностью, «смена» которого ожидается не раньше 2007 года
Попутно с процессорами анонсированы и новые чипсеты для DP-систем — Blackford и Greencreeck. В числе новшеств — переход на две независимые процессорные шины (пропускной способности одной шины для многопроцессорных многоядерных систем катастрофически не хватает) и переход к использованию новой оперативной памяти FB-DIMM. Вскоре изменится и сокет — вслед за Pentium 4 процессоры Intel Xeon переберутся с Socket 603/604 на разъем LGA 771.
Заглядывая в будущее
Вышеперечисленными моделями Intel, конечно, не ограничивается. Горячие головы уже рассказывают о планах уважаемой корпорации едва ли не до 2008 года, и если верить им, то первый четырехъядерный процессор Intel появится уже в конце текущего — начале следующего года и будет представлять собой два кристалла архитектуры Conroe в одной упаковке. Серверная модификация выйдет чуть раньше и получит название Clovertown; настольная — на полгода позже и будет называться Kentsfield. Заодно выйдет и 65-нм четырехъядерная версия Itanium (надеемся, что история с Montecito не повторится) с кодовым названием Tukwilla, хотя в отношении Itanium технологический процесс 90-нм не будет забыт даже тогда — на его основе выпустят «доработанный» Montecito (видимо, такой, каким его обещали изначально) под названием Montvale. Тогда же начнется интересный процесс объединения линеек Xeon и Itanium, поскольку через пару лет и те и другие будут переведены с существующих FSB на новую последовательную шину CSI (Common System Interface), являющуюся своеобразным аналогом шины AMD Hyper-Transport и, как и последняя, обеспечивающую очень широкую совместимость с наборами системной логики. Фактически станет возможным ставить в один и тот же сервер как Xeon, так и Itanium, что, за счет широко используемой инфраструктуры, теоретически должно резко снизить стоимость систем на основе последних.
В общем, скучать нам в ближайшие года два не придется. Некоторый «застой», наблюдавшийся последний год, медленно, но верно уходит в прошлое: похоже, что уже в 2006-м мы увидим очередной виток противостояния ведущих процессорных компаний, с присущими ему ценовыми войнами, гонкой мегагерц и выпуском принципиально новых CPU. А конечный пользователь от этого, как всегда, только выиграет.
Производственные проблемы чипмейкеров
Проблема с современными «тонкими» технологическими процессами — в том, что для производства очень маленьких «рисунков» на поверхности кристалла используется свет с «большой» длиной волны. «Большая» длина лежит, правда, где-то в области глубокого ультрафиолета, но ситуацию это не меняет — при длине волны 193 нм свет, в силу волновых свойств, попросту огибает препятствия с размерами, почти на порядок меньшими (65-нм транзистор, 35-нм затвор). А уменьшить длину волны не получается — еще чуть-чуть, и излучение станет настолько жестким, что начнет ионизировать большинство используемых сегодня в оптических системах материалов, вынуждая отказаться от линзовых систем в пользу систем зеркал (которые, к слову, в разрабатываемых EUV-установках тоже быстро разрушаются) и совершенно новых фоторезистов. Ведутся разработки систем с промежуточной 157-нм волной, для которой еще можно что-то подобрать без радикальных конструктивных изменений и «мокрых» иммерсионных технологий, использующих принцип уменьшения длины волны в жидкостях с высоким коэффициентом преломления. Но из лабораторий они пока не вышли и к тому же повышают доступное разрешение всего лишь в 1,5—2 раза.
Предложенное еще при переходе индустрии на 90-нм технологический процесс решение можно охарактеризовать как своеобразное «приручение» волновых свойств света, превращение их из врага в союзника. Рисунок маски, который литографическая установка переносит на кремниевую пластину, изменяют особым образом, где-то «подрисовывая» лишнее, где-то «убирая» нужное (OPC — Optical Proximity Correction) и используя в некоторых местах вставки, «поворачивающие» фазу на 180° (APSM — Alternating Phase Shift Mask). Процесс этой «доработки», ведущей от изначальной задумки инженеров к итоговой маске, полностью автоматизирован — новый рисунок попросту пересчитывается на компьютере. В итоге удается даже с обычной 193-нм литографией «рисовать» транзисторы для 45-нм технологии, а вместе с 157-нм и иммерсионными технологиями он обеспечит индустрии вполне приемлемые инструменты и для 32-нм и 22-нм техпроцессов, освоение которых намечено на 2009 и 2011 годы. А там, глядишь, еще что-нибудь изобретут — и почти рентгеновские установки «экстремального ультрафиолета» EUV с длиной волны 13 нм, которые нам обещали к 2003 году (а сегодня обещают к 2009-му), уже не понадобятся. В любом случае запас прочности на ближайшие лет пять у разработчиков процессоров есть.
Софтерра: Флэш — драйв!
Авторы: Илья Щуров Voyager, Радомир Толпарёв [rad.hdz.ru]
Отсутствие синхронизации между разными компьютерами (например, домашним и офисным) — извечная проблема тружеников клавиатуры и мыши. Одна только почта доставляет кучу забот: письмо, нужное здесь и сейчас, но скачанное и сохраненное дома, может доставить немало неприятных минут. «Аська» тоже так и норовит подложить свинью — контакты вроде бы и на сервере храним, а они вдруг там не запомнились, или понадобится история переписки, которая как назло велась совсем из другого места. С подписанными RSS-каналами и закладками наших любимых и нужных сайтов происходит ровно то же самое — все разрознено, все везде разное… И это в наш-то мобильный век!
В идеале, конечно, все должно быть не так. Рабочая среда должна быть одинаковой независимо от текущего местонахождения. Поразмыслив, приходим к естественному выводу: нас спасет ноутбук. Остается его купить и, подобно улитке, все свое носить с собой. И правда замечательное решение, если б не высокая цена.
Еще один вариант, напрашивающийся под влиянием тотального распространения разнообразных веб-сервисов: переселиться в Сеть. Для решения многих задач сейчас достаточно браузера. Заводим почтовый ящик на GMail, читаем RSS через Bloglines или Яндекс.Ленты, закладки храним в del.icio.us, веб-страницы — в Furl, даже можем использовать подобие «Ворда» прямо в вебе (например, Writely или GOffice). Возможно, за этим подходом будущее — но пока не столь близкое: и быстрый Интернет не везде доступен, и проблемы со связью случаются сплошь и рядом, да и вообще доверять все свои данные разным компаниям не очень хочется.
А может, есть еще какой вариант? Есть. Простой и надежный. Под названием USB Flash Drive. Попросту — флэшка.
Идея
С привычным рабочим местом нас связывают две вещи: установленные и настроенные программы и необходимые данные. Разумеется, чтобы иметь и то и другое при себе, вовсе необязательно таскать за собой компьютер. Достаточно обзавестись относительно дешевой и быстрой флэш-памятью.
Правда, большинство программ болезненно воспринимают перенос в новую среду и без переустановки могут попросту не заработать. Они хранят свои настройки в системном реестре, используют системные же dll-файлы, а некоторые особенно мнительные представители софтверной фауны могут посчитать попытку запуска на другом компьютере злостным нарушением лицензии — со всеми вытекающими последствиями. Оставлять свои логины-пароли на чужом компьютере тоже не всегда хочется.
Однако не все так плохо, и специализированный «мобильный» софт, способный запускаться с внешних носителей и не оставляющий никаких следов в системе (англоязычный термин portable app(lication)), уже есть — надо только поискать.
Безопасность
Прежде чем наполнять флэшку, следует задуматься о главном: о безопасности. Например, нужно сразу решить, что мы будем делать, если это маленькое устройство вдруг потеряется. Возможных вариантов два: либо кусать локти по поводу безвозвратно утраченной информации (стоимость которой может превышать стоимость самого носителя), либо купить новую, быстро восстановив данные из резервной копии. Если, конечно, она была.
Самое простое решение: регулярно копировать информацию в ZIP-архив с паролем — мы ведь хотим на разных местах работать, так пусть оставленный «без нас» архив будет в относительной безопасности. Правда, защита эта скорее от честных людей, ибо сломать ZIP’овскую криптографию не составляет большого труда и для более надежного шифрования лучше использовать специализированные инструменты (см. ниже). Также следует помнить, что, вставляя флэшку в компьютер без файрвола и/или антивируса, мы со временем рискуем обнаружить на ней программы, которые никогда туда не копировали — например, троянца или вирус. Так что возьмите себе за правило сканировать флэшку на предмет подозрительной «живности» после каждого (даже секундного) использования за пределами своего защищенного компьютера.
Неплохо также зашифровать содержимое мобильного устройства. Открытые криптографические утилиты типа TrueCrypt позволяют сделать это наиболее удобным образом: на флэшке создается один файл-контейнер, содержащий всю информацию (в шифрованном виде, естественно), который после авторизации можно подмонтировать как виртуальный диск и работать с ним в прозрачном режиме. Разумеется, саму TrueCrypt можно запускать без инсталляции с той же флэшки [Более того, можно настроить автоматическое монтирование шифрованного диска при подключении флэшки
Linux на флэшке
Иметь под рукой весь необходимый софт могут позволить себе не только пользователи Windows. Линуксоиды здесь даже в более выигрышном положении: ничто не запрещает носить с собой любимую ОС целиком. Конечно, речь идет о LiveCD-дистрибутивах, загружающихся и работающих с оптического носителя. Самым известным из них является Knoppix, прекрасно уживающийся и с флэш-брелками.
При всех своих достоинствах Knoppix обладает одним существенным недостатком: все компоненты операционной системы записаны на оптический носитель, что не позволяет вносить изменения в системные или конфигурационные файлы. Точнее, во время работы в Knoppix изменять можно что угодно — от настроек темы рабочего стола до характеристик аппаратной части компьютера, но при следующей загрузке все придется восстанавливать заново. Для исправления этого досадного казуса предусмотрена специальная команда меню, позволяющая сохранять изменения на флэш-накопитель. При следующем старте Knoppix достаточно указать соответствующий параметр загрузки, указывающий операционной системе место размещения пользовательских настроек, и ваша операционная система обретет свою индивидуальность согласно вашим предпочтениям.
Более основательный способ работы с флэшкой — создание на ней специального файла, содержащего весь пользовательский каталог в сжатом виде. В нем будут сохраняться не только настройки, но и рабочие документы, электронная почта и т. д. Причем совершенно не нужно перед выходом из Knoppix производить какие-либо действия — сжатие и сохранение данных происходит автоматически в процессе работы. Для подключения пользовательского каталога во время загрузки Knoppix используется команда, аналогичная описанной в предыдущем абзаце. Данные могут сохраняться в файл с применением шифрования, что в некоторых случаях весьма полезно.
Впрочем, сегодня есть «живой» Linux-дистрибутив, который может делать то, что не под силу даже Knoppix. Puppy multisession live-DVD(CD) является миниатюрным (около 60 Мбайт), но самым настоящим Linux-дистрибутивом, обладающим уникальным свойством: он способен сохранять настройки на тот же самый (оптический!) носитель, с которого и загружается. Делается подобный фокус очень просто: при записи сжатого ISO-образа используется режим мультисессии, что позволяет в дальнейшем дописывать на свободное место свои личные настройки или сохранять рабочие документы. Также существует версия Puppy, предназначенная для установки на флэш-драйв.
Илья Шпаньков [[email protected]]
Офис
Перейдем к выбору софта для работы. Чтобы прижиться на флэш-драйве, он должен удовлетворять двум критериям: не быть привязанным к конкретной машине и занимать не слишком много места.
Понятно, что MS Office тут не подходит. Тем не менее свято место пусто не бывает — коллектив проекта (там можно найти и многие другие программы, упомянутые в статье) подготовил и поддерживает специальную сборку свободного пакета OpenOffice.org, уже настроенного для «автономного плавания» (Portable OpenOffice.org). Привыкнув к его интерфейсу, который не так уж сильно отличается от известного продукта Microsoft, обнаруживаем, что почти все документы последнего замечательно читаются в бесплатном аналоге. «В полный рост» он займет около 140 Мбайт. Вроде бы многовато для флэшки, зато мы всегда имеем под рукой всю мощь конторского дела — это и текстовый процессор Write, и электронные таблицы Calc, и все-все-все остальное, что так мило сердцу любого пользователя MS Office. Правда, некоторые дополнительные инструменты (типа словарей для проверки орфографии) придется скачать и установить отдельно. Отличий переносной версии от ее «оседлой коллеги» замечено не было.
По архитектуре OpenOffice.org представляет собой «монолитное» приложение, объединяющее все офисные функции, — так что установить отдельно, например, текстовый редактор и тем самым сэкономить драгоценное место, увы, не удастся. В качестве альтернативы можно предложить Portable AbiWord — не блещущий функциональностью, зато поддерживающий самые разные текстовые форматы и занимающий на винчестере чуть более 14 Мбайт.
Windows на флэшке
Про различные Linux-дистрибутивы, работающие с мобильных носителей, слышали, наверное, все. Менее известно о существовании версии Windows, которую можно запускать даже с флэшки.
Я имею в виду Windows PE (Preinstallation Environment), позиционируемую компанией Microsoft как замена DOS’овских загрузочных дискеток. Лицензия ограничивает ее распространение среди широкой публики — РЕ рассчитана в первую очередь на администраторов крупных сетей и производителей ПК и может использоваться для восстановления рухнувшей Windows и проверки аппаратно-программного обеспечения. Главное ее достоинство по сравнению с обычной версией — малый размер (около полутораста мегабайт) при полной поддержке 32— или 64-разрядных драйверов, а также полноценная работа в сети.
Установка системы на носитель проходит практически без участия оператора. Однако если нужно установить ее на флэшку, то дистрибутив следует искать на диске OPK (OEM Preinstallation Kit) для MS Windows Server 2003. Только на нем имеется специальная утилита, позволяющая отформатировать флэшку под РЕ, сделать загрузочной и скопировать на нее необходимые файлы.
Разумеется, Windows PE — не полноценная операционная система. Во-первых, с ней работают только те приложения, которые практически не взаимодействуют с реестром; связано это с тем, что после перезагрузки все изменения реестра теряются, к тому же его размер ограничен. Во-вторых, эта версия не поддерживает 16-разрядные приложения. И в-третьих, время работы ограничено 24 часами, после чего система принудительно перезагружается. Интерфейса как такового тоже нет: сразу после загрузки вам оставляют только открытое окошко терминала, откуда из командной строки вы можете запускать любые административные утилиты или, например, Notepad. И наконец — ограничено количество одновременно запущенных приложений.
Помимо официальной Windows PE от Microsoft есть и альтернативные разработки. Одна из них -BartPE: это не совсем система, а скорее своеобразный «установщик» Windows. Для его работы не требуется OPK, достаточно стандартной Windows XP, под которой запускается процесс копирования нужных файлов из оригинального дистрибутива Windows на мобильный носитель. Однако для установки на флэш-драйв опять же понадобится утилита форматирования с MSWS2003 OPK. BartPE позволяет расширить возможности «маленькой» Windows. В ней добавлена поддержка отличных от английского языков (уже доступен 21 языковой модуль, в том числе русский), снято 24-часовое ограничение времени работы и наконец, имеется графический интерфейс и поддержка 16-разрядных приложений (благодаря системе плагинов).
Константин Курбатов [[email protected]]
Сеть
Документы — это важно. Но чтобы их создавать, надо быть в курсе событий на нашей планете и в ее окрестностях, в чем очень помогает браузер. К примеру, нашумевший (и продолжающий набирать популярность) Mozilla Firefox перебрался на флэшку в виде Portable Firefox — небольшой (около 16 Мбайт), замечательно поддерживающий сегодняшние веб-стандарты инструмент. Впрочем, за свою портативность он отберет у нас возможность пользоваться кэшем и историей.
Не стоит забывать и про норвежскую «Оперу». Несмотря на то что разработчики не предоставляют официальной portable-версии, по ключевым словам «Opera USB» можно найти множество подробных инструкций и неофициальных «сборок», позволяющих исправить этот недостаток. В результате мы сразу получим в очень маленьком дистрибутиве не только отличный браузер, но еще и почтовый клиент, RSS-читалку и клиент IRC! И все это без потери куков, кэша и т. д. и всего лишь в виде десяти мегабайт после установки.
Если «Оперу» мы не поставили, значит, нам все-таки нужен отдельный почтовый клиент. Переносных программ этого класса существует великое множество, и выбрать победителя из них непросто. Впрочем, для многочисленных пользователей «Летучей мышки» особых проблем с выбором не будет — компания RitLabs выпустила специализированный продукт The Bat! Voyager, заточенный как раз для работы с флэшки (см. врезку).
«Мышка» на флэшке
Говоря о предопределенности выбора «мобильного» почтового клиента для пользователей The Bat, авторы статьи слегка преувеличили: дело в том, что Voyager является бесплатным приложением к профессиональной версии популярной почтовой программы и отдельно не распространяется. Владельцы The Bat! Home Edition (возможностей которой за глаза хватает 90 процентам пользователей), равно как и обладатели пиратской версии, установить portable-версию на флэш-драйв не смогут — инсталляционный пакет связывается с сайтом компании RitLabs и отправляет туда регистрационный блок, а уж на сайте наверняка все подозрительные ключи проверяются. Другими словами, Voyager используется как пряник, побуждающий переходить на Professional Edition.
Что касается самой программы, то это совершенно самостоятельный и практически полноценный клиент The Bat, запускаемый с флэшки. Существенные отличия — обязательное использование пароля для запуска программы и шифрование базы на лету. Поскольку база зашифрована, то, естественно, простым копированием папок с большого компьютера на флэш-драйв синхронизировать установленный на хосте мейлер (он, кстати, может быть зарегистрирован с другим ключом) с Voyager не удастся. Для этого нужно использовать собственные средства The Bat для выгрузки и загрузки базы сообщений (в программе почему-то загрузка и выгрузка объединены в трехшаговый процесс — эдакая причуда юзабилити, — но работает все на ура). Таким образом, если вы потеряли флэшку, то ее новый обладатель не получит доступа к вашей почте (мастер-пароль); если кто-нибудь излишне любопытный перепишет содержимое флэшки на свой диск, то доступа к вашей базе он опять-таки не получит (при установке Voyager на новый драйв программу нужно перерегистрировать, она «привязана» к диску). Собственно, пользователь должен заботиться только о регулярности бэкапов.
Единственное весомое ограничение, которое я заметил за два дня использования программы, — невозможность смены мастер-пароля без полной переустановки программы с предварительным бэкапом. Впрочем, логично предположить, что мастер-пароль используется при шифровании базы, так что это, вероятно, «не баг, а фича».
P.S. Блуждая по сайту RitLabs, я наткнулся на предупреждение: «Форумы не предназначены для обсуждения некорректной работы программного обеспечения!» (что характерно, в английской версии сайта этих слов нет). Компанию, наверное, можно понять, но все равно получается как-то неаккуратненько.
Владимир Гуриев [[[email protected]]
А всем остальным предлагается следовать далее приятным бесплатным путем, установив клиент Portable Thunderbird с RSS-ридером в комплексе и без малейших отличий от стационарного собрата.
Еще один класс программ, которые так и просятся на флэшку, — интернет-пейджеры. Здесь к вашим услугам и Portable Gaim, и Trillian (инструкцию по установке на мобильный носитель можно найти на ) и всенародно любимая Miranda
U3: попытка стандартизации
Компания U3 пытается стандартизировать среду для разработки и запуска portable-приложений и делает акцент на простоте использования и безопасности работы: например, U3-совместимый софт может автоматически запускаться при подсоединении флэшки и закрываться при отсоединении (даже без предварительного ее «размонтирования»), не оставляя никаких следов в системе. Компания предоставляет SDK (soft development kit) для разработчиков, позволяющий адаптировать программы для этой платформы (как правило, достаточно внесения незначительных изменений в дистрибутив), а также хардверные спецификации, которым должен соответствовать флэш-драйв, чтобы его признали U3-совместимым, то есть предоставляющим все возможности для работы U3-софта.
Описание технологии не выглядит революционным, но количество и разнообразие адаптированных программ в каталоге software.u3.com внушает уважение и говорит о неплохих перспективах разработки. По крайней мере, вниманием со стороны софтверной индустрии она точно не обделена.
Разное
Чтобы не заниматься мучительным поиском исполняемых файлов, можно использовать утилитку PStart, позволяющую быстро запускать установленные на флэшке программы. Она создает полностью настраиваемый аналог меню «Пуск» в трее, не привязанный к конкретной машине. Из полезных мелочей можно отметить удобный инкрементный поиск нужной софтины (по названию) и встроенный «блокнотик», сохраняющий заметки на той же флэшке.
Описанные инструменты могут пригодиться всем, но существует мобильный софт и для решения гораздо более специальных задач: начиная от редактирования растровой и векторной графики и заканчивая системными утилитами или веб-серверами. Как правило, достаточно набрать в поисковике название программы вместе с ключевым словом «portable», чтобы получить подробные инструкции по адаптации вашей любимой софтины к тяготам мобильной жизни. Более того, готовые USB-дистрибутивы имеют не только описанные в статье продукты, но и многие другие свободные разработки, лицензии которых позволяют менять комплект поставки. Ну а небольшие утилитки (например, IrfanView) зачастую даже не требуют установки и запустятся с флэшки без проблем[Эти утилиты могут оставить следы в реестре системы, что, разумеется, не всегда хорошо]. В общем, была бы флэшка в кармане, а софт к ней найдется![Например, можно поискать на community.livejournal.com/flash_pc
ОГОРОД КОЗЛОВСКОГО: Опережение зажигания
Автор: Козловский Евгений
Накануне вечером я закончил для «Домашнего компьютера» большую тему (там они называются Cover Story) под названием «Отображение изображения», где пробежался по всем сегодняшним «мониторным» устройствам: от традиционного ЭЛТ-аппарата до виртуального шлема и наладонного проектора на светодиодах (планирую о нем следующий «Огород») и где, естественно, наибольшее внимание уделил параметрам LCD-панелей. Закончил и отослал на техническую экспертизу своему приятелю. Утром получил от него поправки, которые сводились к тому, что стандартное время отклика для мониторов на TN+film заметно сократилось и нормой уже можно считать не 16, а 8 миллисекунд, а особо шустрые экземпляры маркируются уже и «4 мс». Поверил и поправил. Поехал в редакцию, где мне предложили протестировать нового рекордсмена, 19-дюймовый TN+film от BenQ, модель — FP93GX. На его коробке было написано: «Gray to Gray Response Time: 2 ms». То есть — фантастика! Чудеса в решете! (Правду сказать, нигде, кроме как на коробке, я этой фантастики не обнаружил: в инструкции время отклика обозначено так: 6 мс [Ton + Toff].) Понятно, что измерить время отклика матрицы не только в домашних, но и в лабораторных условиях невозможно, — однако захотелось хотя бы глянуть, «почувствовать разницу»! — и я потащил монитор домой. По дороге на меня навалились подготовленные только что написанной Cover Story размышления и рассуждения, которыми я с вами и поделюсь, прежде чем скажу несколько слов (большего он, на мой взгляд, не заслужил) о самом мониторе.
Итак: первые TFT-панели, появившиеся на рынке добрый десяток лет назад, были, сколько мне известно, выполнены исключительно по технологии TN (Twisted Nematic, или Скрученный, Пляшущий Жидкий Кристалл; добавка film появилась позже и говорила о наличии специальной пленки, увеличивающей углы обзора; с тех пор TN+film стало распространенным обозначением этого типа матрицы, хотя сам по себе film уже давно был нормой и мог бы вообще не упоминаться). Эти панели — рядом с некоторыми сегодняшними — имели целый ряд чудовищных недостатков: заметное изменение яркости и, главное, цвета при небольшом отклонении взгляда от центрально-пендикулярного; бедность оттенков, создающая ясно видимые границы на градиентных заливках; отвратительно серый черный и, наконец, недопустимое время отклика. Не умещающееся даже в «кадр» сравнительно низкой частоты рефреша в 60 Гц: длина каждого «кадра» составляет в этом случае около 17 мс, а время отклика на большинстве тех, первых матриц заметно его превышало. Это означало, что далеко не каждый кадр, посылаемый на монитор с видеокарты, успевал прорисоваться до конца — с соответствующими результатами.
Надо полагать, что именно этот дефект — из всего букета — проще всего поддавался какому-никакому исправлению, поскольку и новейшие TN+film-панели не дают черного и меняют цвета и яркости, даже когда сидишь прямо перед монитором: константы не удалось добиться просто на площади самого монитора, и верхушка панели отличается от центра или низа, когда вызываешь на экран ровно-серую заливку, — попытка же довести передаваемый цвет до TrueColor’а делается исключительно программным путем: цвет по-прежнему передается 18-битный (262 тысячи оттенков), а те цвета, которые в эту палитру не попадают, должны возникать не на мониторе, а в нашем мозгу — за счет частого мигания соседних, доступных (технология Frame Rate Control). Правда, чтобы соседние и впрямь мигали достаточно часто, время отклика должно быть по-настоящему маленьким, — на деле же я пока не встретил ни одного TN+film-монитора (и описываемый — не исключение), где не были бы заметны цветовые границы на градиентных заливках. Правду сказать, хоть обычно производители предпочитают умалчивать о программном увеличении числа различаемых цветов, самые совестливые (и BenQ среди них) помечают на своих мониторах не полные 16,7 млн. оттенков TrueColor’а, а неизвестно откуда взявшиеся — вероятно, из математики FRC — 16,2 млн.
В момент, когда производители стали выставлять на коробках с панелями время отклика 16 мс (то есть уже укладывающееся в размер «кадра» при 60-герцовой развертке), TN+film-мониторы, резко упав в цене, пошли в народ семимильными шагами. Конкуренты к тому времени изобрели другие типы матриц — IPS, позже — S-IPS, MVA, PVA, — которые реально боролись с обозначенными выше недостатками, — однако низкая цена, помноженная на раздуваемое маркетологами сравнительно малое время отклика, привела к тому, что купить сегодня монитор до 17 дюймов диагонали включительно, снабженный не TN+film-матрицей, стало практически невозможно (есть одна-две 17-дюймовые модели от Samsung на PVA), а описываемый в текущем «Огороде» девятнадцатидюймовый четыреста-с-хвостиком-долларовый BenQ вызывает тревогу, что вот-вот и 19-дюймовок на рынке не останется.
Пока маркетологи козыряли шестнадцатью, потом — восемью, а то и четырьмя миллисекундами, гады-журналюги нашли в их политике некоторый изъян. Они раскопали, что как бы ни было невелико время отклика, измеряется оно как время изменения прозрачности кристалла с 10-процентной до 90-процентной (о нуле и сотне процентов не слишком дисциплинированных жидких кристаллов — во всяком случае, скрученных — никто, слава богу, и не заикается). То есть — с черного на белый. Или наоборот. (Кстати, «пляшущие» кристаллы обычно открываются с другой скоростью, нежели закрываются, и если, например, сравнить картинку на двух мониторах с одинаковым временем отклика, один из которых [скажем, S-IPS] имеет одинаковое время зажигания/гашения, а другой — разное, впечатление от первой картинки будет заметно лучшим!) Однако при работе (а особенно — при игре) переходы с чисто белого на чисто черный и назад встречаются нечасто, — гораздо чаще происходит переход от одного уровня серого к другому (цвета получаются от фильтров, а кристаллы — всегда серые). И хотя переход от одного уровня серого к другому вроде бы должен происходить быстрее (ибо разница в их состоянии — меньше), — на деле сплошь и рядом случается наоборот: разница меньше, но, соответственно, меньше и управляющий потенциал, и выходит, что при нем кристалл движется сильно ленивее и легко может не уложиться в отпущенные 75-герцовой (как у описываемого FP93GX, например) частотой рефреша тринадцать с небольшим миллисекунд. Более того, время отклика зависит еще и от установленного уровня контрастности: если он меньше максимума — меньше и потенциалы. А в некоторых ЖК-мониторах (по преимуществу — от Sony) существует еще и регулировка яркости, отличная от обычной регулировки яркости подсвечивающей лампы…
Видать, журналюги достали маркетологов, прожужжав покупателям уши про то, что переключение с серого на серый бывает медленнее, чем с черного на белый и с белого на черный, — и вот на коробочке FP93GX появляется надпись о двухмиллисекундном переходе с серого на серый! Представляете: с серого на серый! (Это при шести миллисекундах с белого на черный и обратно, мелким шрифтом обозначенных в конце «Руководства».)
Но у журналюг тут же возникает вопрос: с какого серого на какой серый? С 11-процентного на 12-процентный время перехода может оказаться совсем другим, чем с 88-процентного на 89-процентный. Это раз. Два — это с 11-процентного на 13-процентный… На 14-процентный… С 56-процентного на 78-процентный… Ну и так далее. Представляете, какой величины (и бессмысленности) надо было бы записать матрицу времени отклика при переходе с серого на серый?! А тут — все простенько! «Я на днях купил монитор, — у него, представляешь, время перехода с серого на серый — всего 2 мс!»
И померить эти миллисекунды все равно невозможно, а равно и понять, как они произросли из производителем же заявленных шести (правда, помечено, что шесть — это время включения плюс время выключения; из чего совершенно понятно, что они — разные; наверное, одно — 2 мс [вот, надо полагать, источник надписи на коробке], другое — 4 мс).
Короче говоря, вывод прежний: покупая ЖК-монитор, не глядите ни на какие его параметры, кроме технологии, по которой он выполнен (в наиболее частом случае TN+film скорее всего не будет обозначено ничего), да размера диагонали, а смотрите, подойдет ли он для ваших пристрастий и глаз. На этом конкретном аппарате я, конечно, не взялся бы редактировать картинки и даже предпочел бы кино не смотреть, — однако писать и редактировать тексты — почему бы и нет?
Ощущая свою отсталость от жизни в смысле компьютерных игр (я уже не раз признавался, что играю исключительно в пасьянс, равнодушный как к видеокарте, так и к монитору), на тестирование нового — двухмиллисекундного! — монитора я выписал своего семнадцатилетнего отпрыска, который дома пользуется TN+film-монитором четырехлетней давности с заявленным временем отклика 16 мс. Он притащил какую-то свежую версию «Принца Персии» и уткнулся в экран. Я стал у него за спиной и наблюдал за битвами, когда тонкое белое лезвие кривой сабли выделывало над головой принца сумасшедшие пируэты на сумасшедшей же скорости. Никакой замыленности на лезвии сабли моим туповатым от возраста глазам заметить не удалось, — Савва сказал, что он тоже ее не видит. Однако тут же добавил, что не видит замыленности и на своем «медленном» мониторе.
После его ухода я принялся гонять по экрану тестовые пляшущие квадраты и бегающую трехцветную палку: да, в таком сугубо тестовом, далеким от реальной жизни режиме я все равно обнаружил на передней и задней стенках белого на черном квадрата некоторое… замыливание. Ну и что с того?
И уж коль мониторный тест (TFT Монитор тест, версия 1.52) оказался у меня на компьютере, я, закончив тестирование BenQ и с большими облегчением и удовольствием вернувшись на старую добрую ЭЛТ-Nokia, запустил «черный квадрат» и на ней. Пока он оставался черным, все было ничего. Но едва стал белым на черном (впрочем, и любого другого цвета — только сравнительно светлого тона), как за ним, словно за кометой, вдруг обнаружился чудовищный хвост послесвечения люминофора! Правду сказать, в реальной компьютерной жизни я в подобные ситуации практически не попадаю и хвоста не вижу, а если б вдруг увидел — и внимания бы не обратил.
Но вообразите себе маркетинговую гонку ЭЛТ-мониторов, где главным показателем станет «длина хвоста»! Фирма такая-то выпустила монитор с длиной хвоста 5,2 мм. Со временем послесвечения 5,6 мс… Со временем изменения цвета хвоста с одного серого на другой серый в 2,14 мс!
Сумасшедший дом!
ГОЛУБЯТНЯ: Cкромное введения в агорадицею
Автор: Сергей Голубицкий
Агорадицея (от греч. agora — рынок, и dike — справедливость) — неологизм, загустевший в недрах нашего культур-повидла [По аналогии с «теодицеей» Лейбница] и обозначающий оправдание консьюмеризма, философии потребления, коей современники успешно заменяют и религию, и государственную идею. Сегодняшняя «Голубятня» — скромное введения в агорадицею применительно к основному объекту нашего постоянного внимания — компьютерным программам и железу.
В самом общем виде консьюмеризм описывается простой формулой: «Зарабатывать как можно больше, потреблять как можно больше». Обозначенная жесткая связка играет ключевую роль, поскольку без нее возникают варианты («зарабатывать как можно больше и копить», «потреблять как можно больше, ничего не зарабатывая» и т. п.), никакого отношения к консьюмеризму не имеющие.
Специфика цифровых продуктов вносит существенные коррективы в определение зарабатывания. Очевидно, что для покупки нового ноутбука, КПК или MP3-плейера в прямом смысле слова приходится ковать деньгу, без которой железяками, увы, не разживешься (кардинг и оформление липовых кредитов мы, разумеется, обсуждать не будем). В случае с цифровым продуктом зарабатывание обретает эластичность, поскольку теоретически в Интернете можно найти любую компьютерную программу, кинофильм или музыкальную композицию без денег.
Слово «теоретически» мы употребили неслучайно, поскольку даже без денег момент зарабатывания в универсальной формуле консьюмеризма присутствует: для получения желаемого цифрового продукта необходимо затратить много времени, энергии, изобретательности и терпения, дотошно шерстя поисковые системы, маргинальные форумы, IRC и бакунианские блоги. Как вы догадываетесь, все эти усилия немыслимы без высокой степени мотивации. Что это за мотивация?
Полагаю, что в случае с цифровым продуктом мы сталкиваемся с таким же консьюмеризмом, с тем отличием, что в роли традиционного зарабатывания денег выступает наркотическое желание обладать какой-нибудь вещью. Да что там желание — сущая страсть, граничащая с одержимостью! В этом, между прочим, глубинное отличие традиционного консьюмеризма («Хочу BMW M6!») от консьюмеризма цифрового («Хочу самую свежую версию Adobe Audition!»). В первом случае мы имеем дело с подсознательной сублимацией отчаяния от бессмысленности жизни (плюс, конечно же, комплекс альфа-самца, характерный для автомобильного консьюмеризма), во втором — просто с неврозом, пикантной болезнью современного homo digitalis.
Учитывая неожиданность для неподготовленного читателя параллели между традиционным консьюмеризмом и сублимацией отчаяния от бессмысленности жизни (усиленной еще и страхом смерти), мы непременно вернемся к этой теме в одной из будущих колонок, однако сегодня ограничимся менее людоедским цифровым консьюмеризмом.
Подлинный цифровой консьюмеризм, являющийся, как мы уже сказали, болезнью, следует четко отграничивать от ковыряния в компьютерных программах и железяках по профессиональным соображениям. Ярким примером такого профессионального ковыряния служит персонаж Антонелло, в миру — Евгений Антонович Козловский. С утра до вечера этот человек втыкает-вытыкает из материнской платы новые PCI-карты, соединяет-отсоединяет LCD-мониторы и иже с ними принтеры, сканеры, фотокамеры, дигитайзеры и ИБП. Делает он это спокойно и хладнокровно, не присыхая ни душой ни сердцем к безликим железякам. Беспристрастный ученый, неутомимый прозектор, пластающий на мраморном столе «объект аутопсии».
Очевидно, что в данном примере ни о какой одержимости, а тем более болезни не может быть и речи: Антонелло работает, выполняя профессиональный долг. Если бы он страдал цифровым консьюмеризмом, то непременно стремился к обладанию железными объектами, вместо этого — по окончании тестирования он спокойно упаковывает компьютерную железку и отсылает обратно поставщику. О какой болезни может идти речь, если в 2006 году Евгений Антонович выправляет личные нужды с помощью Tungsten T3 — железяки не то что анахроничной, а прямо таки непристойной в глазах любого консьюмериста? Я уж не говорю об установленных на компьютере Антонелло программах, версии которых пропахли нафталином уже три года назад. Короче говоря, Козловский здоровый человек.
В отличие от Козловского автор «Голубятен» тяжко страдает от цифрового консьюмеризма и потому лично заинтересован в написании серьезной агорадицеи, чтобы хоть как-то оттенить трагизм неизлечимости поразившего его недуга. Единственным аргументом для оправдания цифрового консьюмеризма выступает страсть к познанию нового да головокружительная притягательность множественных альтернатив («Белый верх, черный низ есть?» — «Есть!» — «А черный верх, белый низ?» — «Тоже есть!»). С горечью осознавая, что со временем эти самые множественные альтернативы порождают поверхностный взгляд на вещи и неизбежно заводят в тупик пресыщения, все же рискну продемонстрировать их притягательность на примере Rockbox — недавно открытой мною альтернативной операционной системы для цифровых аудиоплейеров.
Читатели помнят об удивительном гаджете iRiver Multi-codec Jukebox H340, описанном осенью в первой части «Люминиевой рапсодии». Этот уникальный DAP (Digital Audio Player), помимо номинальной способности воспроизводить звуковые файлы в формате MP3, Ogg, WMA и ASF, поддержки текста (txt), изображений (jpeg) и видео, встроенного FM-радио, высокочувствительного микрофона для записи в формате MP3, сквозного канала в обе стороны (line-in и line-out), USB-хоста и шестнадцатичасового запаса аккумуляторных батарей, на поверку оказался еще и рекордсменом качества: звучание H340 не имеет аналогов.
Единственный недостаток, который мне удалось обнаружить в H340 за девять месяцев совместного существования, — это отсутствие закладок, позволяющих возвращаться к определенному месту в звуковом файле, функции незаменимой при прослушивании больших аудиокниг. Короче говоря, по всем признакам перед нами идеальный продукт, наглядно демонстрирующий всесилие народной мудрости «От добра добра не ищут»: живи себе спокойно, радуйся жизни и пользуйся с удовольствием.
Не тут-то было! К великому сожалению, народная мудрость людям, страдающим цифровым консьюмеризмом, не указка. Стоило услышать на форуме энтузиастов и фанов iRiver о существовании какого-то загадочного Rockbox’a, как тут же захотелось все в моем идеальном H340 поменять, раскромсать и перекурочить. Единственное, что сдерживало первые полчаса, так это путаница с пониманием сути самого Rockbox’a. Поскольку проект по его разработке был открытым (GNU GPL), информация о нем распространялась по законам образцово-показательного хаоса. На форуме MisticRiver, созданном энтузиастами и фанами iRiver, на котором я впервые услышал о существовании Rockbox, невозможно было понять, что к чему и откуда ноги растут: то ли какой-то софтверный плейер, устанавливаемый поверх существующей штатной прошивки, то ли надстройка для создания шкурок. Шкурки я органически не перевариваю, поэтому уже собирался пройти мимо, однако решил-таки заглянуть на сайт разработки. Первая же строка вызвала хрестоматийный симптом tremor consumeritis[(Лат.) консьюмеристское дрожание рук, по аналогии с tremor senilis — старческим дрожанием]: «Rockbox is an Open Source replacement firmware for the Archos Jukebox 5000, 6000, Studio, Recorder, FM Recorder, Recorder V2 and Ondio MP3 players». Не беда, что альтернативная операционная система (прошивка), судя по описанию, предназначалась для различных моделей Archos: безошибочный нюх матерого консьюмериста подсказывал, что я нахожусь на пороге эпохального открытия. Так оно и вышло: через пять минут я уже знал, что Rockbox поддерживает помимо Archos еще и плейеры iPod (модели Color/Photo, Nano, 4G Grayscale, Video и 3G) вместе с iRiver (H100, H120, H320 и H340).
Перечитывая список возможностей альтернативной операционной системы, я уже плакал:
поддержка кодеков с потерей качества (lossy): MP3, Ogg Vorbis, MPC, AAC, AC3 (аудиоформат DVD), Speex и RealAudio;
поддержка кодеков без потери качества (lossless): Wave (PCM Audio), AIFF, FLAC, ALAC, Wavpack, Shorten, Apple Lossless;
Gapless Playback (проигрывание без пауз);
полный параметрический пятиполосный эквалайзер;
добрая сотня (!) шкурок и интерфейсов (список пополняется каждый день);
стереозапись в формате 16 bit, 44.1 kHz WAV;
полная поддержка FM Radio;
поддержка дистанционного пульта управления (LCD и безэкранного);
поддержка плагинов: Brickmania, Doom, Tetrox, Bubbles, RockCLock, RockCalendar и десятки других. Как вы уже догадались, с помощью прошивки Rockbox ваш MP3-плейер превращается в игровую приставку (чего стоит один Doom!);
выведение на экран графики (например, обложки пластинки или диска) в процессе проигрывания;
выведение на экран текстов песни (SNC Lyrics) в процессе проигрывания;
полная ручная перенастройка типа и цвета шрифтов и цвета фона;
выведение на экран сведений о следующей музыкальной композиции;
полная поддержка любых типов и любого количества закладок (My Precious!);
ручная настройка размера буфера антишока (от 5 секунд до 15 минут);
включение-выключение кэширования диска и регулировка idle-time, времени его простоя перед отключением.
Я перечислил лишь основные функции этой феноменальной прошивки для цифровых плейеров, однако уже их достаточно, чтобы забыть на время о театрально-буффонадной канве повествования (того самого клинического цифрового консьюмеризма, если кто-то не догадался) и заявить со всей серьезностью о свершившейся революции. Допускаю, что в суматохе перечисления возможностей Rockbox революционность эта могла смазаться, поэтому выделю из контекста самые характерные ее черты.
Rockbox расширяет функциональность вашего HDD-цифрового плейера до уровня проигрывателя компакт-дисков! Да-да, именно так: прямая поддержка форматов PCM Audio и кодеков без потери качества позволяет слушать не только компрессированную музыку (как было всегда), но и несжатый оригинал. Цифра для запоминания: в H340 можно закачать 130 полноценных музыкальных компакт-дисков. Сравните с автомобильным CD-changer’ом на шесть или десять компактов. Это раз. Полный параметрический пятиполосный эквалайзер впервые превращает портативный MP3-плейер из игрушки в серьезный аудиопроигрыватель, позволяющий в мобильных условиях имитировать работу добротного домашнего музыкального центра. Это два. Запись звука не только в MP3 (как позволяет штатная прошивка iRiver), но и в формате 16 bit, 44.1 kHz WAV превращает этот плейер (как, впрочем, и все остальные, поддерживаемые Rockbox) в профессиональный портативный рекордер (особенно с учетом высококачественного встроенного и выносного микрофона, входящих в стандартную комплектацию H340). Это три.
Прочие мелочевки, как-то: пятикратно ускорившаяся загрузка и выключение плейера, ручная регулировка антишока, кэширование диска, возможность создавать базу данных и осуществлять в ней поиск по частичному названию композиции, альбома и музыканта — что ж, можете смело отнести все это к вздорным капризам цифрового консьюмеризма. Такого сладкого и обворожительного, будь он неладен!
Закидываю удочку: если по письмам читателей почувствую, что тема Rockbox по-настоящему заинтересовала, то в следующей «Голубятне» подробно расскажу об установке этой прошивки и ее использовании, поскольку вся документация проекта написана не по-русски и, признаюсь, черт в ней ногу сломит. Так что — пишите письма!
ОКНО ДИАЛОГА: Госбюджет — впервые на компьютерах всей страны!
Автор: Сергей Вильянов
Компьютерное изобилие вокруг нас создает ложное впечатление, что цифровые технологии проникли везде и всюду. Но если отойти от прилавков с красивыми гаджетами, можно столкнуться с удивительными фактами. Например, узнать, что управление государственным бюджетом Российской Федерации до недавнего времени осуществлялось исключительно «бумажными» средствами. Фантастика? Ничего подобного, скорее один из многочисленных приветов из прошлого, которых в нашей стране можно встретить еще очень много. Чтобы узнать подробности о новых механизмах распределения государственных средств, получателем которых, так или иначе, является каждый из нас, мы встретились с Андреем Степаненко, директором по маркетингу компании «Информзащита». Именно ей в ближайшие годы военные, учителя и врачи смогут сказать «спасибо» за соблюдение регулярности выплат, благодаря созданной компанией сети ведомственных удостоверяющих центров Федерального казначейства. Или, наоборот, выразить недовольство, если с регулярностью не заладится.Давайте начнем издалека. Как Федеральное казначейство управляло государственным бюджетом до реализации вашего проекта?
Компьютерное изобилие вокруг нас создает ложное впечатление, что цифровые технологии проникли везде и всюду. Но если отойти от прилавков с красивыми гаджетами, можно столкнуться с удивительными фактами. Например, узнать, что управление государственным бюджетом Российской Федерации до недавнего времени осуществлялось исключительно «бумажными» средствами. Фантастика? Ничего подобного, скорее один из многочисленных приветов из прошлого, которых в нашей стране можно встретить еще очень много. Чтобы узнать подробности о новых механизмах распределения государственных средств, получателем которых, так или иначе, является каждый из нас, мы встретились с Андреем Степаненко, директором по маркетингу компании «Информзащита». Именно ей в ближайшие годы военные, учителя и врачи смогут сказать «спасибо» за соблюдение регулярности выплат, благодаря созданной компанией сети ведомственных удостоверяющих центров Федерального казначейства. Или, наоборот, выразить недовольство, если с регулярностью не заладится.
Давайте начнем издалека. Как Федеральное казначейство управляло государственным бюджетом до реализации вашего проекта?
— Весь документооборот осуществлялся на бумаге, и действовала специальная фельдъегерская служба, развозившая по стране платежные документы. Служба обходилась очень недешево. Точную цифру я назвать не могу, но она была весьма и весьма ощутима, учитывая, что объектов Казначейства в России более двух тысяч, а количество бюджетополучателей и распорядителей превышает четыреста тысяч. Даже если каждому из них написать по одному письму и отправить такой службой, представляете, сколько потребуется бумаги…
…и еще принтеров, конвертов, фельдъегерей и ответственных товарищей… А эта служба была частью Казначейства или приходилось прибегать к аутсорсингу?
— Все зависело от региона — в одних были сильные представительства со своей службой, а в других, где своих людей нет, заключались договора со специализированными компаниями. Причем не всегда государственными: доставка такого рода корреспонденции — это лицензируемый род деятельности, и при наличии лицензии услуги Казначейству и другим федеральным органам могут оказывать и частники.
Идея перейти на электронный документооборот зрела в Казначействе последние два-три года, и в конце концов был объявлен открытый тендер на закупку комплексного решения. Немало времени потребовалось на технико-экономическое обоснование, потому что стоимость контракта обещала быть довольно высокой, но и поддержание старой системы обходилось недешево. Надо было найти способы сэкономить и одновременно определить — сколько займут работы по внедрению. Стоимость тендера, выигранного НИИ «Квант» и нами как соисполнителем, составила семьсот миллионов рублей, которые были предназначены для закупки инфраструктуры, необходимой для обеспечения электронного ведения всех платежных документов по исполнению государственного бюджета. Кроме того, наверняка будут выделяться некие суммы на сопровождение всей этой системы, однако я думаю, что Казначейство все равно выиграет — как в деньгах, так и в управляемости. Они получили действительно централизованно управляемую систему, снижающую требования к квалификации людей на местах. Вдобавок весь мониторинг тоже осуществляется из центра, так что любые проблемные места выявляются дистанционно и могут быть по команде сверху оперативно устранены.
Важно еще и то, что факт доставки документа адресату всегда подтверждается квитанцией, и это можно отследить фактически в реальном времени.
Из каких элементов состоит система?
— По сути, это иерархическая структура удостоверяющих центров, выдающих сертификаты цифровой подписи. Центральный развернут здесь, в Москве, на улице Ильинка, в здании Главного управления Федерального казначейства. По одному подчиненному удостоверяющему центру находится в каждом из 89 регионов страны, включая Чечню, где, кстати, даже Центробанк пока работать не хочет. Далее у каждого регионального управления Казначейства есть отделения, расположенные в различных населенных пунктах — в зависимости от региона количество отделений меняется, но в общей сложности их примерно 2200. Там организуются рабочие места для людей, которые регистрируют цифровые сертификаты абонентов и сотрудников самого Казначейства.
Рабочие места, наверное, всегда на платформе x86 и с решениями Microsoft на борту?
— Да, действительно, используются только решения Microsoft, потому что одним из требований тендера было избежать дополнительного обучения пользователей. Кроме того, на рабочие места устанавливается целый комплекс защитных средств, тоже работающих под Windows. Последние необходимы, потому что если враг пробирается на такое место регистрации, он может от своего имени начать выдавать сертификаты каким-нибудь левым организациям, которые начнут включаться в документооборот и будут восприниматься остальными как законные участники.
Сначала Казначейство начало оснащать сертификатами всех своих сотрудников, и они перевели весь внутренний документооборот в электронную форму. В результате сегодня на бумаге практически не выпускается документов, связанных с функционированием самого Казначейства. Это позволило, во-первых, оптимизировать расходы на документооборот, а во-вторых, повысить скорость доведения всех распоряжений до регионов, причем у адресатов пропала возможность сказать: «Мы конверта не получали, поэтому до сих пор выполнять распоряжение и не начинали».
Затем выбрали несколько опорных регионов — как бюджетополучателей, так и бюджетораспорядителей, и начали переводить взаимодействие с ними в электронную форму. Им предоставляют соответствующее ПО, выдают сертификаты и обучают технологии обмена. В ближайшие два года на созданную систему будут переведены все подразделения во всех регионах, что ее проектная емкость — один миллион сертификатов — позволяет сделать без дополнительного расширения. Причем миллионная лицензия действует в масштабах всей страны: она установлена в корневом удостоверяющем центре и распределяется по регионам в зависимости от потребностей.
А какой закладывался срок службы решения без глобальной модернизации?
— Обычно это определяется сроком службы техники, на базе которой система создается. В данном случае речь идет о трех-пяти годах, после чего потребуется обновление компьютерного парка. Тут еще многое зависит от того, насколько сама казначейская система за это время будет модернизироваться, поскольку она представляет собой исполнительный механизм, а что ему придется исполнять, решают совсем не те люди, которые эксплуатируют нашу систему. Формальное требование тендера — гарантийная поддержка в течение трех лет. При этом набор ПО и документации унифицирован для всей России, а если некий компьютер выходит из строя, из коробки извлекается такой же, хранящийся в холодном резерве, и отправляется на место службы. Надо понимать, что одни из главных бюджетополучателей в нашей стране — это силовые ведомства, и можно сказать, что одним из… толчков, побудивших начать внедрение описываемой системы, стала история двухлетней давности с невыплатой зарплаты ОМОНу в Чечне. А случилось так потому, что из Москвы соответствующий платежный документ отправили, причем в электронном виде, а на месте — тогда еще в Ставрополе — его не приняли из-за сбоя в каналах связи. Хотя в центре все были уверены, что деньги благополучно ушли. Конечно, наши ребята — это не американцы во Вьетнаме, которые отказывались воевать, если апельсиновый сок не подвезли, но проблемы были серьезные, поскольку нервная система у людей в зоне боевых действий немного расшатана, и их реакция не всегда адекватна.
Какие каналы связи используются Казначейством в Чечне? Наверняка с традиционными способами их прокладки там есть трудности…
— Насколько я знаю, они сидят на спутниковой связи. Это, конечно, дорого, зато и вмешиваться в ее работу гораздо сложнее — реально «достать» можно только базовую станцию. Ряд регионов для взаимодействия между собой использует открытые каналы связи — разумеется, с использованием средств шифрования трафика.
Давайте представим невозможное: я обошел всю защиту и вошел в систему как полноправный пользователь. Что там можно натворить?
— Это очень непростой вопрос. Нужно очень хорошо представлять устройство платежной казначейской системы. Посторонний человек, который влезет в систему, просто не разберется — что там к чему? Что он может сделать… Простейший вариант — забить канал, слать в него какой-нибудь информационный мусор, затрудняя взаимодействие легальных пользователей. То есть обычная DоS-атака, от которой не застрахован никто, но фатальных последствий она иметь не будет. Если же злоумышленник знает систему изнутри, он может способствовать перечислению денег «не той» организации. Хотя изначально перечень абонентов в системе закрытый. Искусственно расширить его практически невозможно, поскольку список бюджетополучателей конечен, и существует специальный порядок «включения» нового участника. Нельзя просто создать собственный банковский счет и перевести на него деньги — на этом уровне злоупотребление бюджетными средствами сильно затруднено. На мой взгляд, гораздо дешевле и эффективнее растаскивать средства внутри организации-бюджетополучателя. Но на этот случай есть Счетная палата и другие надзирающие органы. Задача же Казначейства — в заданные сроки и по нужным «адресам» распределить утвержденный бюджет.
А в других странах казначейства применяют аналогичные решения?
— С точки зрения казначейств не во всех странах это реализовано так, но по похожему принципу часто строятся системы сбора налогов. Например, в Ирландии и Австралии действует то же PKI-решение, на базе которого функционирует система Казначейства РФ. Каждый гражданин Австралии подает налоговую декларацию в электронном виде; у него есть свой цифровой сертификат, которым он ее подписывает, что гарантирует авторство документа; затем ему выдается квитанция с датой и временем отправки (она нужна для того, чтобы исключить судебные споры о задержке сроков подачи налоговой отчетности).
Это другой денежный поток, но система похожая — тоже на базе решения, которое когда-то называлось UniCert. Его родоначальником была ирландская компания Baltimore, которая объединилась с еще двумя и стала называться Betrusted, а потом ее купила американская Cybertrust. Несмотря на частую смену имен эта система входит в тройку крупнейших мировых производителей PKI-решений. Все разработчики (около двухсот человек) до настоящего времени работают в Ирландии. Локализация для России не делалась — фактически потребовалось добавление средств криптографии, предусмотренных отечественным законодательством. Это и было сделано нами совместно с «Крипто-Про» и «Балтимором».
Кстати, одним из требований Казначейства была реализация всех механизмов криптографии только на базе российских алгоритмов. Соответственно, был разработан совместный продукт, получивший название «Юнисерт-ГОСТ»; на данный момент это единственный зарубежный пакет, получивший сертификат ФСБ РФ. На нем и построена система, о которой мы говорим.
Как восприняли внедрение этой системы в регионах?
— Трудно сказать. Конечно, она облегчает жизнь, но в то же время одних людей она нагружает новыми обязанностями, а в других нужда отпадает. Разумеется, с развитием техники такие ситуации неизбежны: помню, когда я служил на одном крупном вычислительном центре, у нас сменили парк ЕС ЭВМ, для которых ранее были созданы специальные отделения кондиционирования и энергообеспечения. Вместо них поставили машину IBM с аналогичной вычислительной мощностью, питающуюся от обычной розетки, и никакой кондиционер ей был не нужен. В результате замена техники привела к сокращению тридцати с лишним человек. Тем не менее я не слышал о массовых увольнениях в Казначействе. Подобные организации очень жестко подходят к набору сотрудников, потому что «засланный казачок» может наделать бед. Такими кадрами не разбрасываются, проверенных людей обычно переучивают и направляют на другие участки работы.
Сейчас на рынках Москвы можно купить любые базы, вплоть до полного перечня проводок коммерческих банков за последний год. Не может ли из-за проведенной вами «централизации» документооборота в Казначействе по соседству появиться и информация о расходовании госбюджета?
— Стопроцентных вариантов защиты баз данных от кражи не существует. Всегда есть администратор, который обслуживает базу и делает ее резервные копии. Одно можно сказать точно: даже если уйдет список выданных сертификатов, воспользоваться ими злоумышленник не сможет, потому что каждый из сертификатов состоит из двух половинок — открытой и секретной, которая имеется только у его обладателя. Больше того: любой легальный пользователь теоретически может скопировать и унести список открытых половинок, но следует учитывать, что в систему встроены определенные контролирующие меры, которые позволят определить «несуна». И еще: прикладную часть, непосредственно отвечающую за выписку бумаг, система с открытыми ключами практически не затрагивает. Она интегрирована с нею на таком уровне, что когда генерируется финансовый документ, система автоматически ставит на нем подпись оператора, а затем там же ставится подпись принявшей документ стороны. Прикладное ПО делалось под заказ Федерального казначейства специализированной компанией-разработчиком, и я думаю, что там защита данных закладывалась на всех уровнях.
Конечно, если человек приедет на Ильинку на танке, пробьет стены и захватит сервер — он базу данных получит. Но для борьбы с такими случаями есть специальные меры физической защиты.
Итак, система внедрена и работает, но пока охвачены не все регионы…
— Нет, развернута она во всех регионах, и внутренний документооборот Казначейства работает на ней, однако пока подключены далеко не все бюджетополучатели. Есть опорные регионы — Москва, Южный Федеральный округ и Уральский Федеральный округ, где идет активное подключение бюджетополучателей. В остальных регионах пока подключают только самых крупных. Но условно говоря, если из трехсот тысяч абонентов подключить десять тысяч, восемьдесят процентов бюджета пойдет в электронном виде. А дальше это постепенный процесс, поскольку повсеместное внедрение требует и работы самих сотрудников Казначейства по выдаче сертификатов, и работы с бюджетополучателями, которые должны развернуть у себя соответствующие программные и аппаратные решения. Существует перечень ПО, которое должно быть установлено на компьютере, чтобы документооборот заработал. Это в первую очередь криптоядро производства компании «Крипто-Про» и «математика», необходимая для взаимодействия с точкой отправки и приема информации. В простейшем случае это может быть почтовый клиент, если взаимодействие осуществляется через почтовую систему, либо клиент казначейского приложения. Причем аппаратные требования достаточно низкие и совпадают с теми, что требовались уже снятым с продаж версиям Windows.
То есть можно сказать, что движение средств государственного бюджета до уровня каждого конкретного бюджетополучателя находится под полным контролем из федерального центра?
— Да, именно так.
PKI (public key infrastructure) — инфраструктура открытых ключей (или ИОК). Главное назначение PKI — оборот сертификатов, структур данных, содержащих идентификатор и открытый ключ пользователя системы, и другой служебной информации. Сертификат заверяется электронной цифровой подписью центра сертификации («удостоверяющего центра» в терминологии закона «Об ЭЦП»). То есть центр сертификации играет роль своеобразного нотариуса, хотя профессиональные юристы предъявляют к такому сравнению серьезные претензии. Подпись центра сертификации (или подчиненного ему центра регистрации) удостоверяет подлинность открытого ключа владельца сертификата. Таким образом, получатель сообщения, запросив сертификат и используя указанный там открытый ключ пользователя, может проверить целостность сообщения и подлинность его отправителя.
Наука: Эпоха гигантских эффектов
Авторы: Александр Самардак asamardak[email protected], Алексей Огнев
Конец ХХ и начало XXI веков без преувеличения можно назвать эпохой «гигантских эффектов». Начиная с 1965 г. было открыто полтора десятка физических феноменов, измеряемая величина в которых меняется от нескольких десятков до нескольких тысяч процентов. Это так поражало исследователей, что они по праву присваивали найденным эффектам титул гигантских. Особенно богатым на открытия был 2003 г., когда обнаружили четыре подобных явления (рис. 1). Ряд этих многообещающих эффектов уже нашел применение в науке и технике, позволив сконструировать приборы и технические устройства с весьма высокими характеристиками.
Об авторах
Алексей Огнев — заведующий лабораторией тонкопленочных технологий Дальневосточного государственного университета.
Александр Самардак — доцент кафедры электроники того же университета. Область научной деятельности авторов — многослойные пленки с квантово-размерными эффектами, спинтроника и магнетизм.
Начнем с магнитострикционного эффекта, обнаруженного в ферромагнитных материалах (например, в железе, никеле и др.) еще в 1842 г. Суть эффекта магнитострикции показана на рис. 2 и заключена в следующем: если поместить образец в магнитное поле, его форма и размеры изменятся. Это изменение было очень незначительным и в среднем составляло всего 0,003 %. Однако в 1961 г. у редкоземельных металлов тербия Tb, диспрозия Dy и некоторых их сплавов был открыт эффект гигантской магнитострикции, величина которого больше на два порядка: 0,5 % для сплава TbDyZn. Это позволило создать высокочувствительные магнитострикционные механизмы микроперемещений и нажимных устройств, принципиально новые генераторы мощного звука и ультразвука, сверхчувствительные приемники звука. Были улучшены характеристики линий задержки звуковых и электрических сигналов, а также других устройств для радиотехники и электросвязи.
Широко известный пьезоэлектрический эффект был открыт в 1880 г. и с тех пор нашел применение как в промышленности, так и быту (его используют, например, в пьезозажигалках). Пьезоэлементы созданы из материалов, при деформации которых появляется электрический потенциал. На рис. 3. показано возникновение потенциала при деформации кристалла кварца. Если же мы поместим их в электрическое поле, то пьезоэлементы деформируются — это инверсионный пьезоэлектрический эффект. Материалы, которые используют в качестве пьезоэлементов, можно разбить на две группы: пьезоэлектрические монокристаллы и пьезокерамика. Максимальная величина классического пьезоэлектрического эффекта получена для керамики и составляет около 0,17 %. Гигантский пьезоэлектрический эффект, равный 1,7 %, достигнут в пьезокерамике PMN-PT (свинец, магний, ниобат/свинцовый титанат). Такие пьезоэлементы нашли применение в промышленности в качестве датчиков различных физических величин (ускорения, давления, изменения размеров), пьезоприводов механизмов и т. д. Массив из микрозеркал, в основе которого лежат пьезоэлементы, позволяет создать управляющие устройства для волоконно-оптических сетей. В последние годы наблюдается стремительный прогресс в разработке нано— и микроэлектромеханических устройств, способных передвигаться, собирать, хранить и передавать информацию, осуществлять определенные воздействия по заложенной программе или команде. Разработку микроприводов, а также пьезоэлектрических генераторов невозможно представить без материалов с гигантским пьезоэффектом.
Еще один гигантский эффект, результат внедрения которого почувствовал каждый пользователь компьютера, — эффект гигантского магнитосопротивления. Читатели, наверное, помнят, что в конце 90-х годов средняя емкость жесткого диска составляла примерно 20 Гбайт, что соответствовало плотности записи информации около 4,1 Гбайт/кв. дюйм. Однако сегодня емкость жестких дисков возросла до 400 Гбайт, а плотность записи достигла 100 Гбайт/кв. дюйм. С чем связан такой стремительный рост?
Технологический прорыв обеспечил эффект гигантского магнитосопротивления (ГМС) открытый в 1988 г. В 1997 г. компанией IBM были созданы считывающие головки для жестких дисков, основанные на явлении ГМС. Они обладали высокой чувствительностью к магнитному полю при малом геометрическом размере, что позволило сократить размер бита и, следовательно, значительно увеличить емкость носителей. Ниже мы рассмотрим более подробно это и другие применения ГМС.
Магнитосопротивление
Рождением магнитной электроники можно считать открытие магнитосопротивления в 1857 г. Тогда было обнаружено, что электросопротивление материалов изменяется под действием магнитного поля.
В немагнитных проводниках, таких как медь или золото, этот эффект очень мал. В ферромагнитных материалах величина магнитосопротивления достигает 4%. В ферромагнетике в отсутствие внешнего магнитного поля образуются магнитные домены, внутри которых магнитные моменты параллельны. При включении магнитного поля, величина которого для каждого материала индивидуальна, эти микроскопические магнитные домены исчезают, и весь образец превращается в единый домен, то есть намагничивается. Электросопротивление ферромагнетика до и после намагничивания различно, что и отображено на рис. 4.
Удельное электросопротивление магнитных материалов зависит от угла между магнитным полем и током. Это явление назвали анизотропным магнитосопротивлением. Несмотря на небольшую величину этого эффекта он широко используется в приборах для измерения магнитных, электрических, механических и других физических величин, системах автоматизации и сигнализации, в средствах хранения информации. Однако сегодня наибольший интерес вызывают материалы с эффектом гигантского магнитосопротивления. В следующем разделе мы расскажем о нем более детально.
Металлические спин-электронные структуры
Начиная с двадцатых годов прошлого столетия было известно, что электроны, создающие ток в электрической цепи, обладают и собственным магнитным моментом, спином. Однако в практических целях это никак не использовалось. С приходом нового тысячелетия появилась новая отрасль науки — магнитоэлектроника, или, как теперь принято ее называть, — спинтроника, занятая изучением и практическими приложениями спина электрона.
В наше время спинтроника изучает магнитные и магнитооптические взаимодействия в металлических и полупроводниковых структурах, а также квантовые магнитные явления в структурах нанометрового размера. А началось славное шествие спинтроники с исследования магнитных и электрических свойств многослойных пленок, состоящих из чередующихся магнитных и немагнитных материалов.
Значительные успехи в получении и исследовании тонких металлических пленок, достигнутые в конце XX века, привели к открытию целого ряда новых явлений, которые интересны как для фундаментальной физики, так и для практического применения. Совершенствование технологий позволило синтезировать новые магнитные материалы с уникальной структурой и составом, а возможность получения ультратонких слоев магнитных и немагнитных материалов с резкими границами раздела — обеспечить их кардинально новые магнитные и электрические свойства. В таких материалах возникает ряд уникальных физических явлений, обусловленных тем, что магнитные моменты в трехслойной пленке могут быть параллельны (ферромагнитная [ФМ] конфигурация) или антипараллельны (антиферромагнитная [АФМ] конфигурация), что показано на рис. 5.
В ферромагнитных материалах выделяют два типа электронов в зависимости от ориентации их спина: «спин-вверх» и «спин-вниз». На рисунке направление спина обозначено синими и красными стрелками. Оказалось, что если ориентация спина не совпадает с магнитным моментом слоя (АФМ-конфигурация), то электрон не может попасть в этот слой, и электросопротивление становится больше. После перехода конфигурации из антиферромагнитной в ферромагнитную при возрастании внешнего магнитного поля электрон способен перескочить в смежный слой, и сопротивление значительно уменьшается. Этот эффект и называется гигантским магнитосопротивлением (ГМС).
Наиболее важные с практической точки зрения результаты были достигнуты при исследовании спинового транспорта в металлических мультислойных структурах. Как мы видели, эффект гигантского магнитосопротивления обусловлен зависимостью рассеивания электронов от типа магнитного упорядочения смежных слоев в пленке. Аналогичный спин-зависимый эффект наблюдается в структурах с магнитным туннельным переходом (Magnetic Tunnel Junction, MTJ) типа ферромагнетик — диэлектрик — ферромагнетик (подробнее о них чуть ниже). Он также может приводить к большому туннельному магнитосопротивлению, ТМС (Tunnel Magnetoresistance, TMR). Наноразмерные магнитные структуры с эффектами ГМС и ТМС нашли широчайшее применение в сенсорах магнитного поля, считывающих головках жестких дисков и энергонезависимой магниторезистивной памяти (Magnetic Random Access Memory, MRAM). Рассмотрим более подробно материалы, в которых наблюдаются гигантские магниторезистивные эффекты.
Спин-вентили
Очередным шагом на пути совершенствования структур с ГМС стали спиновые вентили (СВ). Они также состоят из двух магнитных слоев, разделенных немагнитной прослойкой, но магнитный момент одного из слоев закреплен антиферромагнитным слоем (АФМ) с фиксированным направлением магнитного момента. В то же время намагниченность второго слоя может свободно изменяться под действием внешнего магнитного поля. В другом варианте СВ имеют структуру пермаллой (NiFe)/медь (Cu)/ кобальт (Co), рис. 6. Когда мы помещаем этот «сэндвич» даже в слабое магнитное поле, верхний «свободный» слой легко изменяет конфигурацию магнитных моментов вслед за полем, выстраивая ее антипараллельно нижнему слою. А если есть такой переход, то будет и гигантское магнитосопротивление. На основе таких элементов созданы считывающие магниторезистивные головки в жестких дисках с плотностью записи более 100 Гбайт/кв. дюйм.
Варьируя материал, толщину и последовательность слоев, можно оптимизировать магнитные и электрические свойства таких наноструктур и расширить область их практического применения. За несколько лет, прошедших с момента открытия спиновых вентилей, было создано и исследовано не менее одиннадцати их видов с различной структурой.
Магнитный туннельный переход
К следующему поколению спинтроники относят структуры, принцип действия которых основан на явлении магнитного туннельного перехода. Магнитный туннельный переход происходит в структуре, состоящей из двух слоев ферромагнетика, разделенных изолятором (обычно это оксид алюминия Al2O3). Причем толщина изолятора так мала (менее 2 нм), что электрон может просачиваться через него — этот процесс называется туннелированием. В ферромагнитном материале энергия электронов со «спин-вверх» и «спин-вниз» различная, поэтому и вероятность их туннелирования будет отличаться. Если магнитные моменты смежных слоев направлены параллельно, проводимость магнитного туннельного перехода велика, а если намагниченности антипараллельны, то вероятность туннелирования мала, то есть электросопротивление большое. Таким образом, имеются условия для возникновения эффекта ГМС. Максимальная величина магниторезистивного эффекта, наблюдаемого в таких структурах при комнатной температуре, составляет около 220%.
Структуры с магнитным туннельным переходом применяются в качестве считывающих головок в жестких дисках, а также для создания элементарных ячеек магниторезистивной оперативной памяти (MRAM). MRAM-память выглядит весьма перспективной и многообещающей по сравнению с другими типами энергонезависимой памяти. Так, например, время выборки данных у MRAM-памяти может составлять 10 нс, что в пять раз меньше, чем у flash-памяти, а время записи — 2 нс (на три порядка меньше, чем у flash-памяти). При этом энергопотребление магниторезистивной памяти вдвое меньше, чем у flash— и DRAM-памяти.
Сегодня разработку MRAM-памяти ведут несколько фирм: Motorola, IBM, Infineon, Cypress Semiconductor, TSMC, а также совместно NEC и Toshiba. Большинство из них остановились на MRAM-памяти с магнитным туннельным переходом. Схема ячейки памяти, в которой перемагничивание осуществляется по методу Савченко, разработанному в компании Motorola, представлена на рис. 7. Ячейка памяти сформирована на пересечении разрядной и числовой шин. Она состоит из структуры с магнитным туннельным переходом, которая отвечает за хранение информации, и транзистора, с помощью которого организована адресация. Существуют схемы, в которых транзистор заменен диодом или вообще отсутствует. Ток, протекающий по разрядной и числовой шинам, наводит перекрестное магнитное поле, которое изменяет магнитное состояние свободного слоя. При считывании измеряется ток, протекающий через ячейку. Его величина зависит от конфигурации намагниченности магнитных слоев структуры: при параллельной ориентации сопротивление перехода минимально. Это соответствует логическому "0". При антипараллельной ориентации намагниченностей сопротивление велико, туннельный ток мал — это логическая "1".
Используя рассмотренную выше схему ячейки, Motorola в 2004 г. создала чипы MRAM-памяти емкостью 4 Мбайт и временем доступа 25 нс. Тогда же Infinion и IBM представили экспериментальный чип MRAM-памяти емкостью 16 Мбайт. Микросхемы изготавливались по 180-нм нормам. С переходом на 45-нм техпроцесс (это планируется осуществить до 2010 г.) емкость MRAM-памяти возрастет до 10 Гбит, а время доступа снизится до 8 нс.
Кроме MRAM и считывающих головок в жестких дисках структуры с магнитным туннельным переходом можно будет использовать и в качестве элементов в логических устройствах или перепрограммируемых логических процессорах, что потребует очень высоких значений магнитного сопротивления.
Наиболее подробно из всех гигантских эффектов мы рассмотрели явление гигантского магниторезистивного эффекта. Открытое сравнительно недавно, оно уже нашло широчайшее практическое применение, став «трамплином» в новую область физики — спинтронику. Появление новых классов материалов, таких как магнитные полупроводники, позволяет получить новые наноструктуры и ускорить интеграцию спинтроники в полупроводниковую электронику.
Стремительное развитие наноэлектроники послужит основой качественно нового этапа в разработке новейших информационных технологий, новых средств диагностики, связи. Успехи фундаментальных исследований, направленных на поиск новых гигантских эффектов, также будут способствовать осуществлению надежд, возложенных на наноэлектронику и наномеханику.
ОКНО ДИАЛОГА: Хорошо информированный оптимист
Автор: Владимир Гуриев
Очень велик был соблазн озаглавить это интервью «Путешествие из Петербурга в Москву», потому что наш собеседник действительно приехал из Санкт-Петербурга, который, впрочем, не имеет никакого отношения к городу, откуда в Москву отправился Александр Радищев. Санкт-Петербург, в котором живет основатель Википедии Джимми Уэйлс (кстати, Джимми в данном случае — это полная форма имени), всего лишь тезка нашего — имя свое он получил именно в честь российского Питера, где родился один из основателей американского городка. Но в отличие от хмурой северной столицы во флоридском Петербурге в год случается не больше пяти пасмурных дней. До радищевских контрастов не дотягивает, но двухдневный московский визит вполне может считаться краткосрочной ссылкой, в ходе которой Джимми общался с участниками русской Википедии и выкроил время для встречи с нами (отдельно хочу поблагодарить Станислава Козловского, который организовал эту встречу, и Александра Сергеева с «Радио Свобода», принимавшего участие в разговоре).
Краткая биографическая справка рисует нам человека целеустремленного, волевого и довольно жесткого: Джимми заработал капитал на торговле фьючерсами, организовал работавшую с adult content сеть Bornis, создал на пару с Ларри Сэнгером Википедию, сумев эффективно организовать работу десятков, а то и сотен тысяч человек… На самом деле, Уэйлс — приветливый, тихий и очень-очень уставший.
Разговор, естественно, начался с русской Википедии, которая пока заметно отстает от своей старшей сестры — и количественно, и качественно. Впрочем, сам Джимми русской редакцией интернет-энциклопедии вполне доволен.
— Количество и качество идут рука об руку. Сам-то я никак не могу оценить качество русской Википедии и сравнить ее с английской на том же этапе развития, но не исключаю, что русская Википедия даже лучше. Когда английская Википедия состояла из 60 тысяч статей, большая их часть была сгенерирована роботом. Мы просто создали странички-болванки для американских городов. Как вы понимаете, это были не очень хорошие статьи, зато их было много.
К тому же страны развиваются по-разному. Германская Википедия, на мой взгляд, качественнее английской — если брать соответствующие временные срезы. Думаю, это вызвано повышенным вниманием немцев к качеству — мы согласны на «Шевроле», а они покупают «Мерседесы». Как с этим обстоит в России, не знаю, — возможно, вы больше похожи на американцев, а не на немцев.
В Германии в октябре этого года начинается публикация бумажной версии Википедии. Как будет решаться проблема с копирайтами? На сайте материалы сомнительного происхождения можно довольно быстро убрать, но отредактировать бумажный вариант после выпуска уже не получится. Как немецкая Википедия собирается решать эту проблему? Там же сотни тысяч статей…
— Проектом занимается компания Direct Media, и они, насколько я знаю, собираются решать эту проблему традиционными способами: наймут редакторов и проверят содержание всех статей. Понятно, что свести риск к нулю не удастся, но это нормально. Вы же сами наверняка сталкиваетесь с проблемами плагиата…
Больше того, нам время от времени приходят статьи, составленные из текстов русской Википедии.
— Ну вот видите. В общем, риск есть всегда. Но его можно минимизировать. Впрочем, это не наша задача — этим занимается издатель.
Как это устроено
Я читал статьи Ларри Сэнгера о том, с чего начиналась Википедия, но так и не смог понять, чем вы привлекали людей в самом начале. Сейчас-то понятно — это большой проект, в него можно влиться и тешить свое самолюбие, зарабатывая авторитет в сообществе. Но ведь вначале ничего этого не было. И второй вопрос — насколько большую роль в становлении Википедии сыграли участники вашего предыдущего проекта, Nupedia.
— Ваш второй вопрос, на самом деле, является частичным ответом на первый. За два года до Википедии мы запустили Nupedia. В этом проекте участвовали настоящие ученые, вдохновленные идеей бесплатной, доступной для всех энциклопедии, составляемой на добровольных началах. Ведь для многих людей Интернет начинался с идеи свободного обмена информацией. Но потом началась эпоха доткомов, а Интернет стал ассоциироваться с рекламой, спамом и прочим собачьим кормом. Наш же проект возвращал людей к корням Интернета. Мы собрали хороших людей, которые решили вместе делать что-то полезное и делиться этим с другими. И этот стимул работал. Не работала социальная модель Nupedia. Вы должны были написать статью целиком, потом следовал сложнейший процесс рецензирования — в общем, все было сложно и скучно с точки зрения участников проекта. Но когда открылась Википедия, самыми активными ее участниками стали люди из Nupedia, образовавшие ядро сообщества.
Кроме того, в первые месяцы работы был и дополнительный стимул. Вы могли стать первым автором статьи на интересующую вас тему. Например, статьи о России. Для этого нужно было всего лишь создать новую страничку и написать на ней, например, «Россия — это страна» и поставить точку. Несложно ведь, да? Сегодня новых тем, которые никак не освещены, осталось не так уж много.
В этом смысле русская Википедия находится в более выгодном положении. Мы только что перевалили за миллион статей, и новую тему придумать не так-то просто, у вас же пока лишь 60 тысяч статей, что для такой страны явно недостаточно.
Недавно мы писали о новом проекте Ларри Сэнгера — Digital Universe («КТ» #627). Из его статей и из опубликованной концепции проекта очевидно, что ему симпатична менее открытая социальная модель, чем Википедия. Как вам кажется, будет ли его проект успешен?
— Я был у Ларри несколько месяцев назад. Digital Universe — очень интересная идея, и у Ларри сейчас на нее есть куча денег. Намного больше, чем у нас было или когда-нибудь будет. Думаю, успех напрямую зависит от того, удастся ли Ларри выстроить вокруг своей идеи сообщество. Тут ведь какая штука? Если сделать слишком высокий порог вхождения, то построить сообщество очень трудно. Одна из сильных сторон Википедии (и одновременно источник ее слабости) — это легкость присоединения новых участников. Мы растем очень быстро. И к нам приходит множество полезных и неожиданных людей, которые… Иногда попадаются пятнадцатилетние авторы, пишущие совершенно невероятные статьи! Конечно, без плевел тоже не обходится. Так же легко к нам приходят и «трудные» люди, и просто глупцы…
В более закрытое сообщество попасть труднее. В Nupedia нужно было сначала доказать, что ты, допустим, кандидат наук. И только потом тебе, возможно, доверят редактирование какой-нибудь запятой. Конечно, высокие барьеры предохраняют сообщества от нежелательных элементов, но и хорошим людям сложнее в них попасть. Многие участники Википедии втянулись в работу незаметно. Они сделали первое небольшое изменение. Потом еще и еще. После пяти или десяти изменений они говорят себе: пожалуй, пора зарегистрироваться. То есть это очень легкий и естественный процесс.
Ларри предстоит решать эту проблему. Но, насколько я понимаю, они собираются использовать наш контент, проверяя и улучшая его. Так что я думаю, Википедия и Digital Universe могут быть полезны друг другу. В проекте Ларри можно сделать работу, которую трудно осуществить в рамках социальной модели Википедии. Но выстрелит ли его Вселенная — я не знаю. Посмотрим.
В разговор вступает Александр Сергеев.
Меня, честно говоря, удивил вопрос Владимира, поскольку меня интересует ровно обратное. Я могу понять людей, которые с энтузиазмом работали над проектом, когда он только начинался — это было ново, это было интересно, это было приключение. Но сейчас-то это уже не приключение, а скорее работа. Какой смысл заниматься ею, если рядом с тобой тем же занимаются тысячи людей?
— Вы не учитываете, что сам процесс совместного редактирования может приносить удовольствие. Для многих это хобби. Наверное, со стороны это выглядит странно — попробуйте-ка, представить себе человека, который довольно потирает руки и говорит: «Наконец-то выходные! Будет время написать парочку статей для энциклопедии!»
Может быть, это и глупо, но мы же не спрашиваем, почему люди играют по выходным в футбол или смотрят матчи по ТВ. Кое-кому нравится писать вместе. Они так развлекаются.
Но только некоторые области знания предполагают такое легкое отношение. Не получится ли так, что какие-то важные, но сложные для описания области человеческого знания будут фактически отсечены?
— Почти для каждой области человеческого знания можно найти людей, которые ею увлечены. Мне, например, смертельно скучной кажется математическая статистика…
Постойте, как же вы торговали фьючерсами?
— Так и торговал. Это был тяжелый труд. Все эти стохастические распределения… Не могу себе представить, чтобы делал это для собственного удовольствия.
Но некоторые считают иначе. И у нас есть просто фантастические статьи на эти темы.
В то же время у нас есть разделы, которые развиты хуже других, — ведь мы интернет-энциклопедия, что накладывает определенный отпечаток. Компьютерные статьи у нас в порядке, а вот, допустим, китайская поэзия — пока не очень. То есть некий дисбаланс, конечно, имеет место. Но я не думаю, что это критично. Если предположить, что есть тема — я не уверен в этом, но готов пойти на такое допущение, — о которой никто не хочет писать, то скорее всего и читать о ней никто не хочет. Так что отсутствие подобной информации, наверное, можно пережить.
Вообще говоря, это интересный вопрос, но мы никак не можем оценить уровень отсутствующей информации. Если сравнивать нас с Британникой или Брокгаузом, то по широте обхвата мы их уже обошли, и я не могу сходу назвать какую-то область человеческого знания, которой мы совсем не касались.
Кому выгодно
То есть вы не планируете платить за написание статей, за которые никто не берется добровольно?
— Нет. Мы не исключаем платежи, но другого рода. Я недавно был в Индии и обсуждал там проблемы хинди-Википедии. Она плохо развивается. Во многом потому, что все образованные индийцы — даже если дома они говорят на хинди — знают английский, используют английский на работе и набирают тексты с помощью английской клавиатуры. А набирать тексты на хинди на английской клавиатуре — сложно. И здесь мы можем, наверное, приобрести какие-нибудь плагины или хинди-клавиатуры.
Вы планировали оплачивать работу региональных координаторов в медленно развивающихся странах. Это не может быть опасно для сообщества в целом?
— Ох, мы бы с удовольствием платили всем, но мы маленькая некоммерческая организация и просто не можем себе этого позволить. Поэтому если мы будем платить, то лишь тем, кто занимается развитием отстающих Википедий — хинди, арабские языки, суахили. Нам нужно как-то запустить этот процесс. Возможно, некая система поощрений ободрит людей и позволит нам, так сказать, ввести мяч в игру.
Это не вызовет конфликтов? Ведь большинство координаторов будет выполнять ровно ту же работу совершенно бесплатно.
— Не исключено. Трудный вопрос. Но я думаю, что сообщество в целом отнесется к этому с пониманием. Википедия — всемирный благотворительный проект, и если мы нашли способ для ее продвижения в каких-то регионах, полагаю, это будет одобрено. Но, конечно, риск существует.
В настоящее время Википедия финансируется за счет добровольных пожертвований, но уже год или два постоянно идут разговоры о рекламных блоках на страницах энциклопедии. Как вы к этому относитесь и может ли сложиться ситуация, когда это будет необходимо?
— Не думаю, что реклама когда-нибудь станет необходимостью. У нас хватает денег на серверы, а участники работают на общественных началах. Вопрос, который стоит перед сообществом, другой: дополнительная прибыль от рекламы позволит нам развиваться быстрее. Но к этому нужно подходить осторожно. Лично я против введения рекламы. Думаю, есть и другие модели (например, те же бумажные публикации), позволяющие получить дополнительные средства. Но решать буду не я. Решать будет сообщество.
Как вы относитесь к тому, что некоторые сайты используют контент Википедии и зарабатывают на показе рекламы, не отчисляя вам ни гроша (в отличие от Answers.com)?
— Наш контент выпущен под свободной лицензией. Так что если люди берут наш контент, вставляют в него рекламу и зарабатывают на этом — ну что ж, формально у них есть такое право. С другой стороны, гораздо лучше и правильнее поступать так, как делает Answers.com, — они зарабатывают на нашем контенте, но часть заработков отдают нам, на дальнейшее развитие проекта.
Помимо Википедии
Ваша компания Wikia, зарабатывающая показом рекламы на страницах вики-сообществ, начинала с разработки поискового движка. Что пошло не так? Почему от изначальной идеи вы отказались?
— Ну, это моя старая задумка — наложить модель Википедии на открытый каталог сетевых ресурсов типа dmoz.org, который тоже создается на добровольных началах. Проблема с dmoz.org в том, что это очень закрытое сообщество, а потому оно растет медленно и не может занять подобающее место в структуре Интернета. И, создавая Wikia, я пытался изобрести что-нибудь новое, совместив принципы свободного редактирования с поисковиками или каталогами веб-ресурсов.
Это очень сложная задача, которую я так и не решил. В какой-то момент стало понятно, что лучше все-таки делать то, что умеешь. Поэтому мы поменяли акценты, превратив Wikia из поисковика в компанию, предоставляющую бесплатный хостинг под wiki-проекты.
А как вы относитесь к wiki-поисковикам — websbiggest.com или qwika.com например?
— Я довольно давно не заходил на websbiggest.com. Не знаю, насколько хорошо он работает. Но рассуждая абстрактно, совместное написание текста — труднейшая штука, но мы уже умеем это делать и знаем, как справляться с трудностями. У сообществ, построенных вокруг поисковиков, две проблемы. Первая — спам. Им ведь будут заниматься не только профессиональные спамеры, но и обычные люди, у которых есть сайт и которые просто хотят поднять его популярность. С этим очень трудно справиться.
Вторая проблема заключается в следующем. Многим людям нравится совместно редактировать статьи. Это интересно само по себе. Это может стать интеллектуальной привычкой. А вот добавление ссылок в каталог, на мой вкус, — не слишком интересное занятие. Не знаю, как от него можно получать удовольствие. Если ребятам с websbiggest.com это удалось — мои поздравления.
Теперь о qwika.com. Я немножко поигрался с этим поисковиком. Ну что сказать? Очень мило. Не знаю, насколько он нужен — многих ли не устраивает поиск в Википедии, где можно использовать не только родной движок, но и Google? Но, повторюсь, это интересный проект.
Если не Википедия, то что? Давайте представим, что Википедию создал кто-то другой. Каким проектом вы бы хотели заняться после ухода из Bornis?
— Flickr. Очень интересный проект. Простой и очевидный, но — пришедший в голову не мне. Я знаю основателей компании и даже как-то посетовал, что это не моя идея. На самом деле, Flickr был изобретен случайно. Вначале это была онлайновая игра, в рамках которой пользователям позволили загружать фотографии и ставить теги. В какой-то момент стало очевидно, что в саму игру уже никто не играет, тогда как дополнительный сервис пользуется большой популярностью. Они переименовались и превратились во Flickr.
Кстати, вы можете представить, что лет через пять вам надоест заниматься Википедией и вы покинете проект? И наоборот — сможет ли проект развиваться без сильного лидера?
— Мне это так интересно, что я не могу себе представить подобной ситуации. До сих пор не устаю удивляться, что еще два года назад я сидел дома в пижаме и работал за ноутбуком, а теперь, как видите, приехал в Москву и даю интервью.
А сообщество, конечно, может развиваться и без меня. Более того, мы сейчас пытаемся уйти от модели «просвещенной тирании», которая перешла к нам по наследству от открытого софта. Для молодых проектов такая модель может быть полезна, потому что зачастую лучше хоть какое-нибудь решение, чем вообще ничего. Должен быть человек, чье слово ставит точку в любом споре. Но сейчас Википедия очень выросла, у нас множество неанглоговорящих участников, и я уже не вмешиваюсь напрямую в работу национальных Википедий, доверяя управление региональным координаторам. Вот взять китайскую версию — как я могу вмешиваться в их работу?
Разве китайская версия не заблокирована китайскими властями?
— Заблокирована… Но относительно недавно. Мы даже удивились, что они так долго с этим тянули.
Может быть, имеет смысл не касаться некоторых тем в китайской версии? Ввести цензуру, как сделали крупные поисковики?
— Китайские власти не пытались с нами договориться… Но, в любом случае, такая договоренность крайне маловероятна. Меня, честно говоря, очень беспокоит то, что делают в этом смысле Google, Yahoo или Microsoft. Даже если они верят, что поступают правильно (Google, например, говорит, что жизненно важно предоставить китайцам доступ к информации, поэтому, видимо, можно пойти на некоторые уступки), мы-то с вами знаем, что Китай — это огромный рынок. И у очень многих компаний появляется соблазн сказать, что, мол, мы делаем это лишь для того, чтобы помочь народу Китая.
Но мы не коммерческая организация. И не приемлем никакой цензуры. У нас есть определенные ограничения, мы порой блокируем статьи от изменений, но не подстраиваем их содержание под чьи-то желания. Мы нейтральны. Поэтому, наверное, могли бы подчистить и заблокировать от немедленных изменений такие статьи, как статья о площади Тяньаньмэнь, или страничку о фаньлунгун. Но, опять же, это решение должен принимать не Китай, не Джимми Уэйлс, а сами участники сообщества Википедии.
Думаю, что в долговременном смысле такой подход более перспективен. На нашей с вами памяти произошли невероятные изменения в России. И я не уверен, что это хорошая идея для, скажем, Google — ставить под удар свою репутацию ради достижения краткосрочных целей. Когда-нибудь в Китае все изменится, и китайцы вспомнят, кто помогал цензорам.
Хорошо информированный оптимист
Да, у него есть Ferrari, но ездит он на Hyundai, потому что Hyundai — в отличие от Ferrari — заводится. Да, пока Википедия не может гарантировать качество выдаваемой информации, но со временем «проверенные» статьи будут маркироваться как «стабильные», и у посетителя будет выбор — читать самый последний или не столь свежий, но проверенный вариант. Да, морально прошлый год был довольно тяжелым, потому что пресса с удовольствием муссировала любой скандал, связанный с Википедией, но даже негативные публикации шли проекту на пользу.
Джимми — из тех хорошо информированных оптимистов, которые не стали пессимистами. Правда, в будущее он смотрит не столько с уверенностью, сколько с интересом:
— Я могу легко предсказать будущее русской Википедии, потому что английская уже прошла все эти стадии развития. Я знаю, что бывает, когда у вас триста или пятьсот тысяч статей. Но предсказать будущее английской Википедии гораздо труднее. С нынешними темпами роста в следующем марте у нас будет два миллиона статей, а еще через год — четыре миллиона. И я даже представить не могу, на что это будет похоже.
ТЕХНОЛОГИИ: Ориентация на язык
Автор: Дмитрий Кириллов
Одну из самых актуальных, наболевших и, не побоюсь этого слова, фундаментальных проблем разработки можно кратко назвать так: «проект программы не равен ее исходному коду». Впечатляющий набор современных инструментов для анализа, проектирования, рефакторинга и реинжиниринга предназначен, по сути, для сокращения разрыва между проектом системы и ее реализацией в исходном коде.
Так как же сохранить качественный программный проект в условиях постоянно меняющихся требований заказчика? Статья, предлагаемая вашему вниманию, посвящена одному из потенциальных решений, которое способно существенно повлиять на сложившуюся практику разработки.
Об авторе
Лидер группы разработки в компании Nicotech International. В область профессиональных и академических интересов входят организация управления проектами, архитектура программного обеспечения, теория формальных языков, технологии порождающего программирования.
В качестве вступления следует отметить, что современные методы разработки программного обеспечения позволяют достаточно четко отделить бизнес-требования к системе от программной архитектуры, а уж тем более — от исходного кода реализации... но лишь на ранних стадиях разработки. При этом серьезное изменение проекта на поздних стадиях может стать тем самым «дятлом, залетевшим в форточку и разрушившим цивилизацию».
Для того чтобы этого не произошло, опытные разработчики и архитекторы рекомендуют:
пользуйтесь шаблонами проектирования (при этом снижаются риски, связанные с неудачным выбором архитектуры);
периодически проводите ревизии проекта (забавно, что при этом зачастую происходит документирование поведения системы «пост-фактум»);
делайте архитектуру многослойной с минимальной зависимостью между слоями;
прототипируйте, выпуская сборки как можно чаще (золотое правило экстремального программирования);
определяйте возможные направления будущих изменений проекта (это уже из области технологий «третьего глаза»).
Этот список можно продолжать бесконечно, однако и так понятно, что подобные рекомендации позволяют лишь снизить риски, обусловленные расхождением проекта и исходного кода. Корень же всех зол кроется в том, что высокоуровневые аспекты проекта выражаются и документируются в терминах естественного языка (каким является, например, русский или английский), тогда как код реализации пишется на каком-нибудь формальном языке (C++, Java, C#). И между двумя этими типами языков лежит целая пропасть.
Языки предметной области
Решение проблемы напрашивается само собой: может, сразу излагать бизнес-требования на формальном языке? Или хотя бы не бизнес-требования (это мы сильно замахнулись), а высокоуровневые абстракции предметной области, из которых и состоит проект системы?
Да вот только где бы найти подходящий язык! Очевидно, что универсальные языки программирования для этой цели непригодны: в описании функций системы никогда не встречаются термины наподобие «класс» или «виртуальный метод». Диаграммы UML тоже хороши только в качестве красивых иллюстраций к техническому проекту системы[Справедливости ради нужно отметить, что диаграммы классов и взаимодействия могут быть полезны и на этапе реализации, но они опять-таки не содержат «правильных» абстракций]. Еще несколько лет назад казалось, что с этой ролью справится XML, однако сейчас понятно, что подобные проблемы ему не по зубам (более подробно по этому поводу см. врезку «XML и XSLT»).
Вывод: подобные языки нужно создавать. Причем нужно создавать свой, особенный набор языков для каждого типа проектируемых систем, поскольку абстракции, на которых основана какая-нибудь бухгалтерская программа, сильно отличаются от абстракций системы по сбору данных для аналитической отчетности. Для таких языков даже существует устоявшийся термин — DSL (Domain-Specific Language, специализированный язык предметной области), — которым мы и будем пользоваться в дальнейшем.
Идея языков предметной области стара как мир. Макросы, языки командных оболочек (shell-скрипты Unix, например), проблемно-ориентированные языки приложений (такие как встроенный язык известной в России системы «1С»), языки пользовательских интерфейсов (например, XUL, широко известный в сообществе Mozilla), даже «великий и могучий» SQL для работы с базами данных, — все вышеперечисленные языки относятся к категории DSL, поскольку каждый из них проектировался для своей предметной области. Вместе с тем, за редкими исключениями, DSL не используются в качестве средства разработки программных приложений. А ведь как было бы здорово: разработать DSL и записать на нем код проекта…
«Создавать языки под каждый конкретный проект? Вздор!» — скажет вам любой специалист, хорошо знающий, как дорого обходится проектирование формальных языков с нуля. Действительно, при классической схеме разработки любого языка нужно написать много кода для распознавания исходных текстов на этом языке и их погружения в объектную модель, пригодную для дальнейших манипуляций. Кроме того, даже при условии, что эта работа проделана, возникает ряд вопросов.
Как отображать и редактировать программы на таком языке? Понятно, что в век высоких скоростей и мощных сред разработки ограничиться простым текстовым редактором a-la «Блокнот» уже не получится: представления о производительности труда разработчика ныне совсем не те, что в «далекие» 90-е годы XX века.
Какова стоимость внесения изменений в разработанный язык? Если для того, чтобы изменить какое-то понятие предметной области, нужно «перекроить» весь код распознавателя, выгода от использования такого подхода равна нулю.
И главное: предположим, объектная модель получена. Что делать дальше? Ведь модель еще нужно связать с языком реализации системы, что является отдельной головной болью.
Языковые инструментарии
Перечисленные выше вопросы давно волнуют как сообщество разработчиков, так и компании, занимающиеся выпуском средств разработки, поскольку сама по себе идея DSL очень заманчива. Тем не менее по ряду причин комплексное решение вышеуказанных проблем могло появиться лишь совсем недавно.
Речь идет о новом типе программного обеспечения — так называемых языковых инструментариях (language workbenches), которые являются полноценными средами разработки, специально заточенными под DSL. И хотя существуют пока лишь прототипы таких систем, совершенно непригодные для использования в реальных проектах, главные особенности языковых инструментариев можно наглядно продемонстрировать уже сейчас.
Из разработок в этой области хотелось бы упомянуть два перспективных проекта. Первым из них является Meta Programming System компании JetBrains. Система MPS ориентирована на совместное использование с фирменной IDE компании — средой разработки Java-приложений IntelliJ IDEA, которой автор уже восхищался в статье «Кодируй да радуйся» («КТ» #562). Другой проект, Software Factories, принадлежит перу софтверного гиганта Microsoft и выступает в качестве дополнения к недавно вышедшей Visual Studio 2005[Meta Programming System можно свободно скачать по адресу jetbrains.com/mps. Проект Software Factories в настоящий момент представляет собой набор инструментов DSL Tools, доступных для скачивания в составе SDK к Visual Studio 2005. Подробности можно узнать здесь: msdn.microsoft.com/vstudio/teamsystem/workshop/sf].
Ну что ж, покончив с продолжительным введением, перейдем к самому интересному: технологии разработки программ в окружении языковых инструментариев.
Что такое метапрограмма?
Грубо говоря, метапрограмма — это программа, формирующая в результате своей работы другую программу. Сложно? Тем не менее все это интуитивно понятно человеку, хоть раз занимавшемуся разработкой динамических серверных страниц. Действительно, для веб-дизайнера HTML является «программой для браузера», а для веб-разработчика тот же HTML выступает в роли данных, которые нужно сформировать в результате работы некоторого серверного кода.
Следует отметить важную особенность метапрограммирования: любая метапрограмма определяет не одну конкретную программу, а целый класс. Ниже приведен пример метапрограммы, которая определяет класс всех документов HTML, содержащих произвольное число параграфов. Текст метапрограммы (ASP.NET, С#) заключен между специальными операторами <%...%> и <%=...%>.
<HTML>
<BODY>
<%foreach(Paragraph p in Document) {%>
<p>
<%=p.Content%>
</p>
<%}%>
</BODY>
</HTML>
Проектирование DSL
Создание языка предметной области начинается с этапа моделирования данных — той информации, которая будет впоследствии записана в терминах DSL. Для простоты предположим, что нам необходимо разработать DSL, на котором можно описать структуру статьи для журнала «Компьютерра». Предметная область этой задачи включает в себя понятия статья, раздел и подраздел[Понятие «подраздел», конечно же, является избыточным, но кому нужны эти скучные профессиональные детали?]. Для статьи характерны название, автор и некоторая структура, включающая в себя разделы статьи.
Проиллюстрируем вышесказанное диаграммой (см. рис. 1), описывающей модель данных нашего DSL, который условно назовем «Структура статьи в КТ».
Следующий этап проектирования состоит в том, чтобы внести разработанную нами модель данных в языковой инструментарий. При этом для каждого понятия предметной области необходимо создать соответствующую концепцию языка. Например, концепция «статья» выглядит в MPS так, как изображено на рис. 2. На этом проектирование нашего языка можно считать завершенным.
Кто-нибудь может возразить: язык — это в первую очередь знаковая система, а то, что мы только что создали, является скорее некоторой объектной моделью. Действительно, мы разработали только часть языка, традиционно называемую абстрактным синтаксисом. Если так можно выразиться, «знаковой системой» DSL в контексте языковых инструментариев являются редакторы, обеспечивающие визуальное отображение понятий языка.
Создание редактора
Разработка редактора для DSL — занятие еще более увлекательное, нежели проектирование самого DSL, поскольку тут гораздо более широкое поле для творчества.
MPS обладает встроенным дизайнером для создания редакторов DSL, основанном на идее вложенных ячеек. Поясним эту идею на примере редактора для концепции «статья». На рис. 3 ячейка-контейнер верхнего уровня содержит две дочерние ячейки, расположенные вертикально. Верхняя ячейка содержит константное слово «статья», а нижняя является горизонтальным контейнером для других ячеек. И так далее.
После определения «раскладки» составных частей остается связать с редактором атрибуты «название» и «автор», дополнить его возможностью выбора автора из списка, и получится нечто, изображенное на рис. 4. Процесс редактирования документов при помощи такого редактора очень прост и вполне удобен (хотя и слегка непривычен). Например, для добавления подраздела необходимо перейти в ячейку «…добавьте подраздел…» и начать ввод текста. После нажатия клавиши Enter фокус ввода переместится на следующий подраздел.
Генераторы синтаксических анализаторов
К автоматизации процесса разработки DSL можно подходить с различных сторон. Классический путь, существовавший задолго до появления языковых инструментариев, заключается в создании грамматики DSL, пригодной для обработки специальными программами — генераторами синтаксических анализаторов.
Генератор синтаксических анализаторов (ГСА) — это утилита, на вход которой поступает файл с описанием правил грамматики некоторого языка, называемого целевым. В результате работы генератор формирует исходные тексты на C++ (или, допустим, Java), содержащие код для обработки конструкций целевого языка и, возможно, для формирования объектной модели. Написание собственного ГСА «с изюминкой» долгое время являлось престижной академической работой в области computer science, поэтому число подобных инструментов сегодня исчисляется десятками. Этот факт даже получил отражение в названиях многих ГСА: «еще один компилятор компиляторов» (yacc), «еще один инструмент для распознавания языков» (ANTLR) и т. п.
В качестве примера приведем фрагмент грамматики ANTLR для языка арифметических выражений, содержащих числа, а также операции ‘+’ и ‘*’. Хотя подобная запись и выглядит страшновато, при наличии определенных навыков она воспринимается достаточно легко.
expr : mexpr (‘+’ mexpr)* ‘;’!;
mexpr : number (‘*’ number)*;
number : (‘0’..’9’)+;
Несмотря на ряд трудностей, связанных с повсеместным применением ГСА, на сегодняшний день они являются распространенным средством автоматизации разбора исходных текстов*. Например, распознаватель SQL для широко известной открытой СУБД PostgreSQL разработан при помощи пары lex и yacc. Интересно отметить, что эта «сладкая парочка» оказала существенное влияние на открытый софт, породив целое направление так называемых «малых языков» (по сути своей являющихся DSL), с которыми пользователи *nix-систем часто имеют дело при редактировании конфигурационных файлов.
* Тот, кто боролся с неоднозначностями и устранением левой рекурсии путем введения фиктивных правил в грамматику, хорошо понимает, трудности какого рода приходится преодолевать.
Привязка DSL к языку реализации
DSL сам по себе, пусть даже и с хорошим редактором, не представляет интереса до тех пор, пока мы не привяжем его понятия к языку реализации — как правило, некоторому универсальному языку программирования, например Java или С#. Для решения этой задачи в языковых инструментариях применяются технологии метапрограммирования (см. врезку «Что такое метапрограмма?»).
Вид метапрограммы существенно зависит как от структуры DSL, так и от языка реализации проекта. Например, в случае DSL «Структура статьи в КТ» можно сгенерировать документ HTML или макрос для Word, который в процессе выполнения сформирует шаблон будущей статьи с необходимой разметкой документа. При этом метапрограмма, генерирующая HTML, будет сильно отличаться от метапрограммы-генератора документа Word.
Вообще говоря, метапрограммирование — интересная и мощная, но довольно сложная технология. Именно поэтому в окончательном варианте статьи опущен пример, связанный с написанием метапрограммы для нашего DSL «Структура статьи в КТ». Отметим лишь, что процесс написания метапрограмм можно радикально облегчить, если мы хорошо представляем себе конечный результат — исходный код на языке реализации. Поэтому при ведении проекта на DSL целесообразно использовать прототипирование, то есть вначале создать «скелет» разрабатываемого приложения, а уж затем проектировать DSL и метапрограммы-генераторы для него.
Процесс разработки
Обобщая, можно выделить следующие этапы разработки приложений с участием языковых инструментариев:
1. Cоздание прототипа, содержащего частичную реализацию минимально необходимого набора бизнес-функций («скелет» будущего приложения).
2. Определение существенных абстракций проекта, разработка DSL.
3. Создание метапрограмм-генераторов для понятий DSL.
4. Перевод разработанного прототипа приложения в окружение языкового инструментария.
5. Реализация бизнес-функций проекта в терминах DSL.
6. Автоматическая генерация исходных текстов на языке реализации проекта.
Этапы 2—6 схематически изображены на диаграмме (рис. 5), там же показана взаимосвязь между языковыми инструментариями и классическими средами разработки.
Возможно, многим покажется, что вышеописанный подход к разработке — не более чем преодоление трудностей, которые мы сами же себе и создали, приняв решение вести проект системы на DSL, однако список полученных при этом преимуществ весьма внушителен:
полностью подавляется расхождение проекта и исходного кода. Высокоуровневые абстракции проекта, записанные на DSL, связаны с кодом реализации проекта. При этом проект всегда остается актуальным, ведь изменения исходного кода теперь вторичны по отношению к изменениям в самом DSL;
облегчаются доработки проекта под изменившиеся требования заказчика. Этому способствует сама философия метапрограммирования: DSL как бы параметризует проект. При небольших изменениях проекта разработчику нужно лишь слегка модифицировать конкретную конфигурацию, описанную на DSL. Серьезные изменения, затрагивающие предметную область, тоже становятся проще, поскольку в таких случаях алгоритм действий четко определен: вначале модифицируем сам DSL и редакторы для него, а затем — генераторы исходного кода на языке реализации;
упрощается управление проектом. Например, при вхождении в проект новых участников для получения общего представления о проекте (в его актуальном состоянии!) достаточно показать им лишь ту часть исходного кода, которая записана на DSL. Более того, взаимодействие между участниками проекта становится эффективнее. Допустим, аналитик проекта, хорошо представляющий себе бизнес-логику приложения, теперь сможет самостоятельно описывать на DSL ее отдельные части[В принципе, достаточно лишь понимания аналитиком кода на DSL. При этом он (как правило, все же, она) сможет на словах рассказать разработчикам, что нужно сделать, а затем, просмотрев код на DSL, проконтролировать их работу]. При этом проект избавляется от лишних документов, а разработчики — от их прочтения (на что тоже нужно время) и двусмысленного толкования;
становится возможным повторное использование DSL в схожих проектах. Все разработанные DSL, подобно общим библиотекам компонентов, становятся серьезным активом компании-разработчика, поскольку являются квинтэссенцией опыта компании и допускают повторное использование в будущих проектах.
На мой взгляд, в настоящий момент у языковых инструментариев существует только один серьезный недостаток: риск попадания в зависимость от поставщика программного обеспечения. Дело в том, что сейчас DSL жестко привязан к языковому инструментарию, при помощи которого он был разработан. И если в мире Microsoft этот вопрос отпадает автоматически (ввиду тотального характера зависимости), то для будущих пользователей MPS он вполне актуален, даже несмотря на то, что все файлы проекта MPS хранятся в открытом формате XML. Разумеется, это не является непреодолимым препятствием на пути к использованию языковых инструментариев, тем более что стандартизация в этой области станет возможной лишь с появлением на рынке конкурирующих и несовместимых друг с другом продуктов. Просто к списку технологических рисков проекта добавляется еще один пунктик.
Декларация или империя?
Позволю себе внести предварительное замечание эстетического характера: в свете языковых инструментариев могут возродиться многие давно забытые дискуссии о самих языках программирования, придававшие нашему ремеслу (искусству?) особое, ни с чем не сравнимое обаяние и притягательную силу. Обаяние, которое автор статьи так настойчиво хотел похоронить, публично обличая страстных приверженцев C++, верных любимому языку по сей день[ «Язык мой...», «КТ» #555-556]. Каюсь, грешен: поддался влиянию поголовного обсишарпивания разработчиков. Прошли годы, и хотя в отношении самого C++ автор своих взглядов не изменил, за настойчивость в желании прервать диалог о языках программирования все же досадно.
Итак, переходим к сути. Вообще говоря, при написании программ существуют две стратегии:
записать, что нам нужно сделать (декларативные языки);
записать, как мы собираемся это делать (императивные языки).
Для декларативных языков характерны емкие и компактные конструкции. Достаточно сказать, что исходный текст довольно сложной программы на ПРОЛОГе — ярком представителе всего семейства — вполне может уместиться «на одном экране».
Тем не менее практически весь мэйнстрим современной разработки составляют императивные языки (все те же С++, Java, C#, ...), а чуть ли не единственной серьезной промышленной нишей для декларативных языков являются технологии баз данных, где прочно обосновался SQL вкупе с множеством диалектов. И это не просто «исторически так сложилось». Несмотря на изящество, компактность и концептуальную простоту декларативных языков их применение оправданно только при условии, что предметная область задачи четко определена. Именно этим обстоятельством и объясняется успех SQL, ведь абстракции, на которых построена работа с реляционными данными, давно изучены и хорошо известны.
При проектировании DSL актуален следующий вопрос: нужно ли вносить в него императивные конструкции (условные операторы и циклы)? Не потеряем ли мы в результате то, к чему, собственно, и стремимся: получение простого языка, на котором записана лишь самая суть проекта, без утомительных деталей реализации?
Руководствуясь здравым смыслом, можно сказать, что императивные конструкции целесообразно использовать лишь тогда, когда это продиктовано спецификой предметной области задачи. Например, если в постановке задачи часто употребляется слово «коллекция элементов» и говорится о задачах добавления/удаления/поиска элементов, введение в DSL понятия «цикл для работы с коллекциями» способно существенно упростить решение. Тем не менее предпочтение все же стоит отдавать декларативным конструкциям: их проще моделировать (сокращаются затраты на проектирование DSL), к тому же зачастую они легче воспринимаются и несут больше информации о проекте.
Прекрасное далёко
Для создания DSL «Структура статьи в КТ» автору потребовалось около часа. Разумеется, это не есть адекватный показатель, поскольку мы разработали простой и вдобавок совершенно бесполезный язык, но трудозатраты в один человеко-час все-таки впечатляют. И тем не менее многие почему-то не верят, что разработка в окружении языковых инструментариев будет быстрой, а процесс создания и сопровождения DSL — простым. Мне кажется, здесь вполне уместна аналогия с рефакторингом: кто бы мог подумать лет десять назад, что переименование метода (со всеми вызовами!) можно выполнять почти моментально, практически безоговорочно доверив все действия среде разработки? А сейчас мы постоянно выполняем различные операции рефакторинга, с улыбкой вспоминая времена, когда подобные вещи еще не имели такого сочного названия и выполнялись вручную.
Обо всем этом можно сказать проще (и притом максимально пристрастно): профессиональное чутье подсказывает автору, что с приходом языковых инструментариев в повседневную практику разработки удастся достичь технологического прорыва, сопоставимого с тем, какой в свое время пережил веб при переходе от CGI-скриптов к динамическим серверным страницам[Теоретически между CGI и, допустим, PHP разницы нет: обе технологии позволяют динамически генерировать HTML. Вопрос только в том, какой ценой. В случае CGI для этого нужно поместить весь генерируемый HTML внутрь операторов вывода какого-нибудь языка программирования (допустим, C++). Главная беда такого подхода даже не в том, что код становится очень тяжело модифицировать. Где вы найдете хорошего веб-дизайнера, улавливающего тонкости оператора printf (или программиста, хорошо разбирающегося в веб-дизайне)? С появлением технологии динамических серверных страниц, построенной на ранее обсуждавшихся принципах метапрограммирования, стала возможной эффективная совместная работа людей со столь разными типами мышления]. С той лишь разницей, что языковые инструментарии охватывают все направления прикладной разработки и позволяют эффективно организовать управление проектом в целом.
Одна беда — прекрасное пока еще далёко, а потребность в нем ощущается уже сейчас.
XML и XSLT
Появившись в далеком 1997 году, XML (eXtensible Markup Language, расширяемый язык разметки) произвел самую настоящую революцию, практически сразу же покорив сердца разработчиков и архитекторов, поскольку совместил в себе, казалось бы, две несовместимые вещи: доступность для восприятия человеком и возможность автоматического распознавания различными программами. Немного позже XML был дополнен технологией XSLT, наделяющей его возможностями метапрограммирования. Вот как выглядит документ XML для разработанного нами языка «Структура статьи в КТ»:
<?xml version="1.0" encoding="UTF-8" ?>
<статья
название=”Ориентация на язык”
автор=”Дмитрий Кириллов”>
<раздел название=”Введение”/>
<раздел название=”Языковые инструментарии”>
<раздел название=”Проектирование DSL”/>
<раздел название=”Создание редактора”/>
</раздел>
</статья>
Забавно, что практически сразу же после появления XML отовсюду посыпались различные идеи «разработки, основанной на метаданных» (metadata-driven development), созвучные концепции языковых инструментариев. Но... громоздкость конструкций (обратная сторона самоописательности XML), а также, мягко говоря, их ограниченная выразительность зачастую сводят на нет любые попытки построить практичный DSL на основе XML. Чтобы это понять, достаточно представить себе мир, в котором для формирования запроса к базе данных вместо простого и компактного оператора SELECT языка SQL каждый раз пишут монстров, пестрящих угловыми скобками.
Что же касается возможностей построения метапрограмм-генераторов, то, как показывает опыт развития средств разработки веб-приложений, связка XML/XSLT проиграла сражение на этом поле технологиям динамических серверных страниц (PHP, JSP, ASP.NET и т. п.). Причин много, но главных, пожалуй, две:
— сложность организации взаимодействия серверных компонентов при разработке средствами XML/XSLT;
— технологии динамических серверных страниц предоставляют возможность явной реализации принципов метапрограммирования.
ФМ-ВЕЩАНИЕ: Web 2.c и Web 2.b
Автор: Феликс Мучник
Почему-то, говоря о Web 2.0, в основном обсуждают разнообразные сервисы для частных пользователей, забывая, что эти частные пользователи где-то работают, учатся. В обсуждении моей прошлой колонки, посвященной теме Web 2.0, одним из главных вопросов был следующий: как заработать на этом.
Интересно, что и Антон Антич в своей статье «Бизнес-модель для веб-стартапа: а есть ли она?», опубликованной в его блоге в феврале, тоже рассматривал модели, ориентированные только на конечного пользователя. Назовем их условно Web 2.c. Естественно, при таком подходе возникают только две модели: заработок на рекламе и платные сервисы (или некая их смесь). Это меня несколько удивило, учитывая опыт работы Антича в корпорации Microsoft, одном из самых активных продвигателей ASP-модели (приложения — как платные сервисы для компаний).
Разделение бизнес-моделей на категории в статье профессора Майкла Раппы (Michael Rappa) более подробное, учитывающее как модели «бизнес для пользователя» (B2C), так и модели «бизнес для бизнеса» (B2B) . Например, в статье уже внесено в табличку виртуальное место для торговли (marketplace), типичным примером которого является amazon.com. Он не только торгует товарами с собственного склада, но и давно оказывает услуги другим компаниям по ведению их каталогов, ордер-процессингу и логистике служб доставки. Тот же amazon предоставляет сервис по ведению корпоративных аккаунтов компаний-покупателей (товары заказывают сотрудники, а расплачивается компания). О , на котором предоставлены программы и железо для Windows от различных продавцов, тоже давно известно. В Рунете по пути marketplace идет проект от eHouse.
В Интернете предыдущей версии сервисы для бизнеса (хостинг, почта, сайты, сервисы по приему денег) предоставляли Yahoo (ныне добавившая сервис по ведению блогов) и MSN (в новой версии бета-сервис Office Live), многочисленные порталы, позволяющие сравнить цены от разных продавцов (типичные примеры в Рунете — это Price.ru, Яндекс-Маркет, Рамблер-Покупки), сервис по использованию распределенной CRM-системы и многие тому подобные. Но все они односторонние, сервер-компания. Они не дают возможности передавать информацию, деньги, товары, услуги между компаниями. Без излишней скромности, можно сказать, что некоторым приближением к концепции Web 2.b является наша система. Она позволяет общаться описанным выше способом поставщикам программ (в том числе и друг с другом через совместные пакеты программ), дилерам, компаниям-покупателям, компаниям, поддерживающим аффилированные с нами витрины. В результате четверть наших компаний-покупателей приносят нам три четверти оборота. Но чего-то в супе еще не хватает для того, чтобы мы окончательно себя ощутили частью новой версии Интернета. Чего именно не хватает всем нам, надеюсь выяснить вместе с вами, уважаемые читатели.
Вот, к примеру, одна из идей. Дарю безвозмездно, то есть даром. Есть множество курьерских служб, оказывающих услуги по доставке грузов в разные регионы, за разное время и за разные деньги. Дайте им возможность занести перечень своих тарифов в некий портал. Дайте возможность компании, которой нужно отправить пачку грузов, сформировать и разместить заказ (учитывая, что разные позиции могут отправляться разными компаниями). Дайте возможность курьерским службам в реальном времени получать эти заказы, а компаниям — отслеживать выполнение заказов. Заведите службу отзывов и хелп-деск, белые/черные списки курьеров. Далее, думаю, идею развивать не надо. Уже понятно, за что в данном случае порталу брать деньги. Конечно, за транзакции. Ведь в сегодняшней ситуации все компании (несмотря на то что компании покрупнее заводят и свои курьерские службы) вынуждены отрабатывать логистические (и не только) проблемы взаимодействия с несколькими службами доставки. По крайней мере, в электронной коммерции именно так и происходит. Думаю, в остальных отраслях совершенно такая же ситуация.
Опишите аналогичную идею в виде бизнес-плана и смело идите к ангелам, венчурам, инвесторам. Наверняка она привлечет больше внимания, чем идея очередного сервиса для блоггеров. Дедушка одного из моих друзей, когда внуки обращались к нему с просьбой о деньгах, всегда говорил: «Дети, я вас не понимаю. Зачем вы просите деньги у меня, когда надо выйти на улицу и опустить глаза. Деньги валяются на каждом шагу, только их никто не берет». Подводя итог, для получения работающих Web 2.b и Web 2.c надо «выйти и посмотреть» и продолжить трансформацию денежно-товарных отношений в денежно-информационно-товарные отношения.
ПИСЬМОНОСЕЦ: Некоторые слова в фильтре файрвола
Автор: Илья Щуров
Здравствуй, «Компьютерра».
Ты уникальный журнал. Статьи интересные, полезные, нужные в хозяйстве. Хочу внести предложение по организации архива бумажных номеров. Часто в журнале печатают практические статьи, про которые вспоминаешь в определенные моменты жизни: при поломке компьютера, покупке сканера или другой железки, закачке программы и др. Так вот нужно сделать многоуровневый каталог, облегчающий поиск статей. Например:
Железо
Сканер
Выбор
Эксплуатация
Принтер
Софт
Для фотографий
Для здоровья ПК
И так далее. Каталог будет постепенно пополняться статьями и подразделами. Так существенно облегчится поиск нужной информации.
Пока писал письмо, подумал: а почему бы не сделать базу знаний на основе статей «Компьютерры»— задаешь вопрос и получаешь ответ от коллектива авторов журнала в виде статей?
Андрей Вахтанов
ОТ РЕДАКЦИИ: Андрей, ваша идея уже давно реализована: мы тем и занимаемся, что задаем вопросы авторам и получаем от них ответы в виде статей. А потом эти статьи попадают на страницы журнала. Так вот и делается «Компьютерра».
Дорогая «Компьютерра»!
Простите за откровенность, но обложка номера #628 совершенно дурацкая, да и тема какая-то чудная. Конечно, литература (а также и компьютерный еженедельник) — это не семнадцатилетняя барышня, но я ужасно не люблю сворачивать любимый журнал в трубочку или еще как-нибудь его перегибать, чтобы не позориться перед домашними.
Тем не менее моя история связана с темой номера. Не так давно муж по моей просьбе прописал в фильтре файрвола некоторые слова, в частности ххх. И вот я в очередной раз собираюсь отправить эсэмэску с сайта одного известного сотового оператора (из соображений экономии), а страница с бесплатной отправкой не грузится! Все остальное грузится, а страница с эсэмэсками — нет. Я была чрезвычайно озадачена, пока наконец не сообразила, что страницу не пропускает файрвол из-за такого пассажа: «Мобильный номер должен быть семизначным с префиксом 7095 и т.д. Например, 7095xxxxxxx». Мне было очень смешно.
С уважением, ваша постоянная (с замужества) читательница tapoint
ОТ РЕДАКЦИИ: Пожалуй, нам надо бы сделать статью про настройку файрволов. А вам— заехать к нам за призом.
С тех пор как я увлекся трехмеркой, понял, что фотография сугубо вторична и всякий настоящий фотограф заворачивает свою страсть к подглядыванию в форму искусства. Какое, в баню, искусство, если фотограф НИЧЕГО не создает! Он только, в меру отпущенного таланта, подсматривает в видоискатель и фиксирует то, что создано до него. Это понятно, что грамотно поставить модель в нужную позу— тоже некоторая фантазия нужна, да и ракурс подобрать и оптику уметь надо… Но, как я не совсем скромно думаю, сие не совсем искусство. Мне кажется, что фотографы, называя себя творцами, немного лукавят и набивают себе цену.
С появлением компьютеров и программ трехмерного моделирования, как мне кажется, случился прорыв в творчестве. Теперь каждый, у кого есть доступ к приличному компьютеру, может ТВОРИТЬ и визуализировать свои мысли напрямую, не обращаясь к посредничеству моделей, студий и прочих прихлебателей, которые так и норовят нажиться на этом процессе. Вы никогда не сможете сфотографировать свои мысли, а визуализировать— вполне. Вы никогда не сможете сфотографировать Увиденное в книжке Крапивина, а смоделить и отрендерить — запросто. Фотография — по природе своей — аналоговая, но как снять то, чему нет аналога? То, что уникально по сути своей? Мне кажется, что это невозможно. Можно только найти подобное и снять на пленку или матрицу. Но в том-то и дело, что это будет именно ПОДОБНОЕ, а не ТО! Это будут не Безлюдные Пространства, а всего-то навсего убитые заводы и фабрики, с которых ушли рабочие…
Я отдаю себе отчет в том, что так называемые «настоящие фотографы» попытаются выступить в защиту, но вероятность того, что они смогут корректно опровергнуть мои тезисы, невелика. Фотографы еще заняты тем, что пытаются доказать наличие некой душевности пленки и бездушности (хорошо хоть не бездуховности) цифры. Также я понимаю, что настоящее творчество уже на грани гордыни, которая, как мне известно, есть первый смертный грех… Потому как всякий человек, вытворяющий нечто из мыслей, уподобляется Творцу, а это уже не безопасно. Может преизрядно аукнуться. Потом. Когда-нибудь. Но аукнется обязательно. <…>
C уважением,
Лев Шелдунов
ОТ РЕДАКЦИИ: Даже как-то боязно было публиковать ваше письмо, Лев. Вот поймут все «так называемые» настоящие фотографы, что никакие они не творцы, да и уйдут в трехмерщики (в лучшем случае). И останемся мы без фотоиллюстраций. Скучно ведь будет.
Редакторы, будьте осторожнее с порнотехнологиями! Вы всего лишь поместили девушку на обложку, а линки уже ведут не туда, куда надо. Страница не 42-я, а 60-я. Не иначе, постарался злой дух этих самых порнотехнологий.
ОТ РЕДАКЦИИ: Ваша правда, Петр! Будем делать обложки с большой осторожностью. А то, неровен час, разозлим духов, и на страницах журнала начнут появляться всплывающие и мигающие баннеры в пол-экрана и прочие атрибуты соответствующих сайтов. А нам бы этого не хотелось.
Антивирусом Dr.Web награждается tapoint — за чувство юмора. Приз предоставлен компанией Dr.Web
Комментарии к книге «Компьютерра, 2006 № 10 (630)», Журнал «Компьютерра»
Всего 0 комментариев