Компьютерра 01.11.2010 - 07.11.2010
Статьи
Чего стоит ждать от Windows 8 Андрей Письменный
Опубликовано 01 ноября 2010 года
"Самый рискованный продукт Microsoft — это следующий релиз Windows" — заявил глава компании Стив Баллмер. К сожалению, за этими словами не последовало никаких подробностей. Похоже, что после того, как в Microsoft, по сути, загубили проект Longhorn, предшествовавший Windows Vista, о достоинствах грядущих продуктов стали говорить куда осторожнее. В частности, об упомянутой Баллмером следующей версии Windows известно совсем мало, да и то не по доброй воле Microsoft.
Релиз Windows 7, последовавший через два года после провальной Vista, оказался более чем успешным. Доходы компании в первом квартале 2010 года заметно возросли по сравнению с тем же периодом за прошлый год — не в последнюю очередь благодаря Windows 7. Однако «семёрка» — хоть и популярный, но по большей части эволюционный продукт. В Windows 8, судя по громким заявлениям и уже известным подробностям, изменений будет куда больше. Но действительно ли они настолько фундаментальны, что способны повлиять на популярность Windows?
Windows Phone 7 — новый релиз мобильной ОС Microsoft, по сравнению с прошлыми версиями вообще перевернул всё с ног на голову: приложения для прошлых Windows Mobile там даже не запустятся. И если Баллмер не готов отдать WP7 звание самого рискованного продукта, то изменения в десктопной версии должны быть поистине грандиозными.
Что известно о Windows 8 на текущий момент? Не так уж много, да и за это нужно благодарить какого-то рассеянного сотрудника Microsoft или кого-то из партнёров компании, давшего утечь в Сеть слайдам с конфиденциальной презентации. Там, в частности, упоминались: быстрая загрузка системы, улучшенная поддержка планшетов (привет, HP Slate!), возможность переустанавливать систему, не теряя настроек и прочих личных данных, поддержка распознавания лиц (избавляет от необходимости вручную логиниться в систему), Internet Explorer 9, улучшенная справка и, наконец, Windows App Store — аналог популярных ныне магазинов приложений для мобильных телефонов.
Один из слайдов презентации, посвящённой разработке Windows 8
Что же тут рискованного? Вряд ли Баллмер говорил о гибернации, которая при особенном «везении» может быть так испорчена, что будет создавать проблемы и при входе в систему и при выходе. Скорее уж речь идёт о встроенном в ОС магазине софта. Если разработчики его не признают или пользователи не станут покупать приложения, то затея провалится. Но сможет ли даже такой серьёзный провал повлиять на популярность ОС? Сомнительно. Для этого нужно что-то ещё более мощное — к примеру, запрет на установку приложений не из магазина. Но вряд ли в Microsoft пойдут на такой шаг — это сделало бы установку всех старых программ невозможной и действительно убило бы Windows.
Возможно, в поисках разработок, которые потенциально могут войти в Windows 8, стоит обратить внимание на технологии, создававшиеся в рамках проекта Windows Longhorn, но так и не вошедшие в Windows Vista. А среди них действительно было немало интересного.
За названием Aero могло скрываться куда больше, чем использование трёхмерных эффектов и красивая декорация окон. Ещё во времена Windows ME был разработан интерфейс, где главную роль играли не окна и не документы, а задачи (Activity). По задумке авторов проекта, вся работа с ОС должна была вращаться вокруг так называемых «центров активности», в которых были бы собраны самые необходимые действия. До конечной реализации в итоге довели лишь один из центров — Music Center, который в итоге превратился в Windows Media Player 7.
Куда более известная неиспользованная технология из Longhorn — это файловая система WinFS, создатели которой, по сути, отказались от традиционной иерархической структуры каталогов, а всю информацию предлагали хранить в реляционной базе данных. Это помогло бы программистам упростить код, отвечающий за работу с файлами, а пользователям — легче находить информацию на жёстком диске. Когда разработка Longhorn начала задерживаться, от WinFS было решено отказаться. Навсегда ли? Идея выглядит по-прежнему привлекательной. Возможно, и реализацию за прошедшие годы успели довести до должного уровня.
Palladium или Next-Generation Secure Computing Base (NGSCB) — далеко не такая желанная разработка, как WinFS. Она позволяет изолировать процессы на уровне «железа» — соответствующая микросхема уже создана компанией Trusted Computing Group и устанавливается в некоторые компьютеры (в частности — в ноутбуки Lenovo ThinkPad). Palladium не был включен ни в Windows Vista ни в Windows 7, а страница с описанием технологии на разработческом портале MSDN не обновлялась с 2004 года. Всё это, впрочем, не означает, что Microsoft забросила разработку Palladium — никаких официальных анонсов на этот счёт не было.
Можно ещё вспомнить о существовании проекта Singularity — экспериментальной операционной системы с микроядерной архитектурой, разработанной в Microsoft Research в 2003 году и обновлённой до версии 2.0 в 2008. Вряд ли, правда, Singularity уже готова настолько, чтобы ей можно было заменить ядро NT уже в следующей версии Windows. Для этого понадобился бы как минимум новый набор драйверов, а скорее всего и обновление остальных низкоуровневых компонентов ОС.
И Activity, и WinFS вписались бы в концепцию «улучшенной поддержки планшетов», которую якобы обеспечит Windows 8. Смена традиционного рабочего стола на Activity сблизила бы интерфейс Windows 8 c Windows Phone 7, где уже реализовано нечто очень похожее. WinFS избавляет пользователя от необходимости копаться в файловой системе — не хуже, чем операционная система iOS, работающая в Apple iPad. Palladium же, скорее, сочетается с концепцией закрытой системы с приложениями, устанавливающимися только из магазина. С использованием этой технологии становится куда проще защитить систему от установки неподписанных приложений.
Многие из перечисленных изменений напоминают то, что компания Apple использует в iOS и обещала включить в Mac OS X 10.7 Lion, следующую версию «десктопной» ОС, релиз которой также состоится в 2011 году. Магазин приложений для «маков» появится уже в начале года и будет работать в том числе на Mac OS X 10.6 Snow Leopard. Также заявлено, что в Lion приложения будут самостоятельно сохранять состояние при выходе и восстанавливать при следующем запуске. Похоже, обе компании внимательно следят за действиями друг друга и без атмосферы жёсткой конкуренции не обойдётся. Если она заставит Microsoft пойти на риск, а Apple — поторопиться с выпуском Lion, это лишь пойдёт всем на пользу.
К оглавлению
(обратно)Владимир Каширцев (ИНГиГ СО РАН) о том, закончится ли нефть Алла Аршинова
Опубликовано 03 ноября 2010 года
Тема запаса нефти и ее добычи — одна из наиболее обсуждаемых в мире. Самым серьезным опасением является, разумеется, то, что в ближайшее время ее ресурсы исчерпаются. Это, по мнению многих обывателей, сильно изменит жизнь человечества и приведет к всевозможным видам кризисов: энергетическому, экономическому, транспортному.
Но ученые не торопятся бить тревогу. По мнению экспертов, нефти «на наш век точно хватит». О видах и ресурсах нефти, о способах ее добычи и критериях «качества» рассказывает Владимир Каширцев, член-корреспондент Российской академии наук, доктор геолого-минералогических наук, первый заместитель директора по научной работе Института нефтегазовой геологии и геофизики им. А. А. Трофимука.
- Владимир Аркадьевич, как скоро закончится нефть?
- По прогнозам 1930-х нефть должна была кончиться к 50-м годам, по прогнозам 50-х она должна была кончиться сейчас, по сегодняшним прогнозам резкое снижение добычи произойдет в 2030 году.
Есть понятие выхода на «полку» (или «на пик» по теории американского геофизика Хаберта), за которой неизбежно следует снижение добычи нефти. В советской России мы выходили на «полку» ежегодной добычи более чем в 600 миллионов тонн, сейчас добываем чуть больше 400, то есть уровень полки понизился, но добыча в ряде регионов при этом продолжает нарастать.
Раньше мы компенсировали добычу приростом запасов примерно в два раза, то есть добывали определенное количество, а запасы приращивали и утверждали в Государственном комитете по запасам (ГКЗ) в 2 раза больше. Несколько лет назад мы потребляли нефти больше, нежели приращивали геологических запасов. В последнее время вышли на прирост запасов, опережающий примерно на 10 % добычу. Кроме того, во всем мире возрос интерес к так называемым альтернативным источникам углеводородов, в том числе и к нетрадиционным нефтям.
- Что такое нетрадиционная нефть, много ли ее, и где ее добывают?
- Нетрадиционная нефть — это нефть, получаемая при переработке нефтяных, или точнее, битуминозных песчаников, залегающих практически на земной поверхности. В свое время это были пески или пачки песчаников, пропитанные нефтью, из которых впоследствии (при подъеме слоев тектоническими движениями к поверхности) улетели бензиновые фракции, а осталась только масляная и асфальтово-смолистая часть.
Основными запасами нетрадиционной нефти обладают месторождения пояса Ориноко в Венесуэле и в Западной Канаде (Атабаска, Колд-Лейк и другие). Существуют уникальные нефтяные месторождения битумов и на севере Сибирской платформы, с ресурсами битума по разным оценкам от 4 до 20 миллиардов тонн.
В Татарстане в ГКЗ поставлено на учет 1,4 миллиардов тонн природных битумов, которые содержатся в полутора десятках месторождений. В Канаде месторождения битумов (с ресурсами примерно в 10 раз больше, чем у нас) разрабатываются карьерным способом.
При первичной переработке битуминозных песков (обычно путем пиролиза) получают нефть плотностью порядка 0, 85 г/см3, то есть по плотности — практически соответствующую традиционной нефти, но по своему углеводородному составу существенно отличающуюся от последней.
В Западной Сибири есть также месторождения тяжелых и высоковязких нефтей, например, Русское и Северо-Комсомольское, которые сложно добывать традиционными методами.
Мне доводилось бывать в Калифорнии на месторождении Сансет, где высоковязкую нефть разрабатывают с помощью пятиточечной системы. Она заключается в следующем. Через четыре скважины в пласт закачивают пар, в середине бурится дренажная скважина, откуда и откачивается на поверхность разогретая нефть. Она же используется для того, чтобы в специальных бойлерах опять превратить воду в пар. Лозунг компании «Эксон» при разработке этого месторождения «Максимальная безопасность», и, действительно, его обслуживает всего два человека, процесс полностью автоматизирован.
Что касается рентабельности эксплуатации таких месторождений, то в Канаде, например, при современных мировых ценах добывать нефть из битумных песков выгодно, поскольку ее ресурсы оцениваются более чем в 130 миллиардов тонн, а общие ресурсы природных битумов и сверхтяжелых нефтей составляют не менее трех четвертей от общих ресурсов традиционных нефтей. Также нужно учитывать, что в нашей стране только начинаются работы по освоению Арктического шельфа, уже открыто Штокмановское газоконденсатное месторождение. Два таких же газоконденсатных месторождения открыто и в Карском море. А что касается шельфа моря Лаптевых и дальней Чукотки — эти области практически не исследованы.
- Когда добыча дорогой нефти станет выгодной?
- Она стала выгодной, как только цена перевалила за 48 долларов за баррель, нефтеносные песчаники Атабаски (Канада) и Венесуэлы стали, несомненно, экономически выгодными для промышленной разработки.
- Что Вы думаете об абиогенном происхождении нефти?
- В свое время в России была школа известных ученых (начиная с Д.И.Менделеева –создателя карбидной гипотезы), которые придерживались точки зрения, что вся нефть происходит из мантии, и ее запасы практически неисчерпаемы. Есть и сейчас исследователи, которые с ними солидарны.
Но существует другая, общепринятая, теория (а не гипотеза) осадочно-миграционного или органического происхождения нефти, разработкой которой заняты научно-исследовательские коллективы. А нефтяные компании используют результаты этих разработок для количественной оценки перспектив нефтегазоносности различных регионов. В качестве примера могу привести опыт некоторых компаний, которые успешно используют компьютерное моделирование для реконструкций нефтеобразования, миграции и аккумуляции углеводородов в осадочных «бассейнах».
Специальные компьютерные программы анализируют мощность осадочного чехла в бассейнах, реконструируют особенности их геологического развития, оценивают содержание в породах органического ископаемого вещества, сколько в итоге получится нефти, и где ее искать? Наш институт выполнял подобные работы для компаний «ЭксонМобил», Shell и Conoco Phillips по моделированию и бассейновому анализу северных регионов Западной Сибири. У зарубежных компаний очень практичный подход к делу, и их не интересует теория абиогенного происхождения нефти, потому что с их точки зрения, она ничего не дает для практики.
За 40 лет опыта работы в этой области я также пришел к убеждению, что нефть имеет органическое происхождение, это может быть связано как с древними (более миллиарда лет) ископаемыми отложениями, так и сравнительно молодыми толщами, заполняющими внутриконтинентальные рифтогенные структуры. Мне совместно с «экспедициями на Мирах» посчастливилось побывать на дне Байкала, и воочию увидеть на глубине около 900 метров следы нефтепроявлений Байкала. Используя методы органической геохимии, нам удалось доказать, что нефть здесь генерируется сравнительно молодыми кайнозойскими осадочными отложениями, толщина которых на дне озера может достигать 7-10 километров. Внутри этой толщи отложений существуют вполне достаточные температуры и давление, чтобы происходила генерация нефти.
- То есть при желании можно использовать Байкал как нефтяной ресурс?
- Это возможно, но нежелательно. Лучше его использовать как модель для изучения процессов зарождения и разрушения нефтяных залежей в современных бассейнах рифтогенного типа.
- А как же экология?
- Байкал всю всплывающую нефть «переваривает» и практически не замечает. Нефть, как и любое органическое вещество, может разлагаться бактериями. Причем существуют целые сообщества бактерий, которые с удовольствием используют в своем жизненном цикле именно нефтяные углеводороды.
Среди них есть «гурманы», которые съедают сначала, например, насыщенные углеводороды, потом берутся за ароматику. Мы посчитали, что примерно 16 тонн нефти в год всплывает со дна Байкала. Это естественные источники, и никакого вреда Байкалу от них нет. Это не авария в Мексиканском заливе, хотя и здесь при более благоприятных температурных условиях бактерии поработают интенсивнее и справятся с этим бедствием.
- Почему тогда подняли такой шум вокруг этой темы?
- И правильно. Это ведь процесс длительный. Вы же видели птиц, залепленных нефтью. То, что они накрыли сейчас колпаком, и то, что осталось, будет переработано естественным образом, но все равно это экологическая катастрофа.
- Почему нельзя добыть всю нефть?
- Я думаю, что рядовой читатель вряд ли представляет, что такое нефтяное месторождение или нефтяная залежь. Это не полость в земной коре, заполненная нефтью, а породы, которые обладают определенной пористостью, и нефть, как и любой флюид, пропитывает их. А если речь идет о древних месторождениях, то это не пески, а песчаники, или карбонатные твердые породы.
То есть нефть заполняет лишь поровое пространство в породах. Существуют межмолекулярные силы, из-за которых нефть «прилипает» к зернам этих пород, и она связана с ними настолько, что ее не оторвешь никакими силами. И хорошо, если геологические запасы будут, например, 100 миллионов тонн, а коэффициент извлечения нефти 0,3. То есть из 100 миллионов тонн нефти, которые содержатся в месторождении, мы можем извлечь лишь 30 миллионов, и не больше.
Существует целая серия вторичных методов интенсификации притоков, это, например, гидроразрыв: в скважину закачивается вода под большим давлением, рвется пласт, чтобы нефть притекала к скважине. Но поскольку межмолекулярные связи порвать практически невозможно, и как бы мы ни бились, достичь даже коэффициента извлечения в 0, 5 % от геологических запасов — это большая удача.
- По каким характеристикам определяют качество нефти?
- При непосредственном получении нефти на промысле ее качество определяют механические примеси, вода, растворенные в ней соли и газовый фактор, то есть количество растворенных в нефти газовых компонентов. Один из основных показателей — это содержание серы. Сера является компонентом, который неблагоприятно влияет на качество получаемых продуктов переработки. Она может существовать в виде различных соединений (сульфиды, меркаптаны и т.п.).
Вам приходилось пользоваться газовой плиткой? Когда вы включаете плиту и еще не зажгли газ, говорят, «пахнет газом». Сам по себе природный газ не пахнет. А запах ему придает адарант или сернистое соединение, которое специально вводят в газ. Причем это такая гадость, что если ввести одну ее часть на миллион, вы все равно почувствуете запах.
И в целях безопасности, чтобы можно было ощущать утечку газа, меркаптан специально вводят в природный газ. И таких сернистых соединений в нефти очень много, вплоть до того, что существует даже элементная сера. Есть удивительное месторождение в Казахстане — Тенгиз, там наряду с добычей нефти получают целые горы самородной серы.
Другие качества нефтей определяют такие параметры, как плотность, вязкость, содержание парафинов, количество различных температурных фракций и многое другое. Есть еще много полезных и вредных примесей. Ряд нефтей содержит ванадий, а ванадий, казалось бы, хороший элемент, но если он попадает в большом количестве, например, в реактивное топливо, то может корродировать и разрушить лопатки турбин.
К оглавлению
(обратно)ARPAnet: начало и конец Юрий Ильин
Опубликовано 03 ноября 2010 года
29 октября 1969 года с компьютера SDS Sigma 7 в Университете штата Калифорния в Лос-Анджелесе на компьютер SDS 940 в Стэнфордском университете было передано первое текстовое сообщение — «LOGIN». Со второй попытки, но передано.
Ну и что, спросят нас читатели? Ничего особенного, просто стоит обратить внимание на год, когда это случилось, и на то обстоятельства, что эти два компьютера были первыми узлами сети, которая впоследствии получила название ARPANET.
Да-да, той самой сети, из которой вроде как вырос потом весь интернет. Той самой, которая, согласно более поздней мифологии, конструировалась на случай ядерной войны, чтобы, дескать, обеспечивать стабильную связь в условиях, когда прямые каналы связи выведены из строя.
На самом деле это действительно миф: ARPANET хоть и порождён Агентством по перспективным научно-исследовательским проектом (ARPA, теперь — DARPA), по сути не являлся сугубо оборонным проектом, скорее частной инициативой, к разработке которой ARPA привлекла существенные средства.
Частным (ну, почти) лицом, вокруг которого закрутилась вся история, стал специалист по информатике Дж. Ликлайдер (J.C.R. Licklider), работавший в компании BBN. В августе 1962 года он опубликовал несколько работ, связанных с построением того, что он поименовал «Интергалактическая компьютерная сеть». В ней были изложены практически все основные принципы, по которым функционирует сегодняшний интернет.
В октябре1963 года Ликлайдер получил назначение в Пентагон на должность руководителя программ поведенческих наук и командования и контроля в Агентстве по перспективным научно-исследовательским проектам (Advanced Research Projects Agency).
Ликлайдер затем долго общался с Айвеном Сазерлендом и Бобом Тэйлором — потом их назовут пионерами интернета, и за дело, — и смог-таки убедить их в целесообразности реализации своих идей. Впрочем, ARPA Ликлайдер успел покинуть ещё до того, как его концепция была принята в разработку.
Дальше за дело взялся Тэйлор.
У ARPA был свой интерес в проекте компьютерной сети, позволяющей использовать различные компьютеры для передачи сообщений: Агентство спонсировало научные исследования в различных коммерческих и академических заведениях (в том числе в области информатики), и было заинтересовано, чтобы эти исследователи применяли в работе компьютеры, которыми ARPA их же и снабжало.
Кроме того, с помощью такой сети можно было бы ускорить распространение информации о новых результатах исследований и нового программного обеспечения.
Как потом рассказывал Чарльз Херцфельд, бывший глава ARPA, проект ARPAnet стал результатом их «фрустрации по поводу ограниченного количества больших и мощных исследовательских компьютеров в стране, и того обстотельства, что многие исследователи, которые нуждались в доступе к ним, не могли его получить по причине географической удалённости». Ещё одно слово против распространённой идеи о том, что ARPAnet создавался «на случай ядерной войны».
Впрочем, учитывая, что основной профиль ARPA/DARPA — именно военные технологии, а на дворе в самом разгаре шла Холодная Война, приписывать военное назначение ARPAnet будут ещё весьма долго — и вряд ли совсем уж безосновательно.
В офисе у Тэйлора стояли три компьютерных терминала, каждый из которых был соединён с разными компьютерами, сконструированными на деньги ARPA. Первым была система Q-32 в System Development Corporation, второй — Project Genie в Университете Калифорнии в Беркли и третий — компьютерная система Multics в Массачусеттском технологическом институте. Для каждого из терминалов существовала своя система команд, на каждый надо было логиниться, как это сейчас называется, отдельно...
Лень, как известно, двигатель прогресса, и Тэйлор пришёл к закономерному выводу, что неплохо было бы сделать так, чтобы с одного терминала можно было устанавливать соединение с любым другим компьютером.
Кстати, практически в то же время активно шли разработки в области маршрутизации пакетов; первая публичная демонстрация случилась 5 августа 1968 года в Великобритании, в Нацинальной физической лаборатории.
К середине 1968 года Тэйлор подготовил законченный план по созданию компьютерной сети и после одобрения ARPA, 140 потенциальным подрячикам разослали необходимые запросы.
И вот тут вот обнаружилось, что всё это никому не нужно совсем. Подавляющее большинство сочли предложение ARPA безумием, только 12 учреждений отозвались по существу, и лишь четыре из них ARPA рассматривала потом как первичных подрядчиков. К концу 1968 года осталось двое, и в итоге контракт достался упоминавшейся уже выше компании BBN Technologies.
Команда из семи специалистов довольно быстро смогла сконструировать первые работающие машины: на основе компьютера Honeywell DDP 516 производились первые IMP (Interface Message Processors), устройства напоминающие современные роутеры.
Правда, не по размерам:
Каждый IMP получал и пересылал пакеты данных, и был подсоединён к модему, подключённому к выделенным линиям. К самому IMP уже подключался компьютер-хост (через специальный серийный интерфейс).
Работоспособная система со всей аппаратной и программной начинками была сконструирована за девять месяцев. Символичный срок, не так ли?
И вот 29 октября была предпринята первая попытка обмена сообщениями между двумя компьютерами. Первый привет вышел скомканным: из слова LOGIN переданы были только буквы L и O (кстати, сейчас «lo» — это сокращённое «Hello»), после чего система упала в обморок. Через несколько часов её удалось привести в чувство, и слово LOGIN достигло Стэнфордской машины...
Так начался ARPAnet.
К началу декабря 1969 года ARPAnet состоял из четырёх узлов, к сентябрю 1971 года узлов было уже 18, и рост пошёл по экспоненте. В 1973 году состоялась «публичное представление» ARPAnet. В октябре, на Первой международной конференции по компьютерам и коммуникации в Вашингтоне, сотрудники ARPA продемонстрировали работу системы, объединив компьютеры, располагавшиеся в 40 разных местах на территории США. Это привлекло немалый интерес, и помимо ARPAnet начали появляться новые сети, выстроенные по сходным принципам.
Возможно, самым значимым событием в дальнейшем стала разработка сотрудниками ARPA и Стэнфорда протокола контроля передачи данных и межсетевого протокола (transmission control protocol/internet protocol — TCP/IP). Именно этот стек протоколов в основе современного интернета и лежит до сих пор.
Формально ARPAnet прекратил своё существование в 1990 году. С другой стороны на его основных принципах держится весь сегодняшний интернет, так что в какой-то степени ARPAnet оказался бессмертным.
К оглавлению
(обратно) (обратно)Интервью
Елена Чуракова («Т-Платформы») о российских суперкомпьютерах Юрий Ильин
Опубликовано 01 ноября 2010 года
- Когда Т-Платформы появились на свет, и с чего они начинали?
- «Т-Платформы» образовалась в 2002 году в самом конце, в сентябре, называлась компания в ту пору «TYAN-Платформы». Изначальный замысел состоял в том, чтобы продвигать на российский рынок серверы на базе платформ TYAN. Но чрезвычайно быстро стратегия поменялась, и поменялась кардинально. Оказалось, что серверных платформ от одного поставщика мало, а кроме того, подошли к завершению некоторые исследования, которые глава компании Всеволод Опанасенко проводил касательно того, какие ниши вообще свободны на российском IT-рынке, и он посчитал возможным и необходимым развивать в России верхний сегмент рынка, который на тот момент в общем-то развит здесь не был совсем.
Так TYAN-платформы превратились в Т-Платформы, от TYAN осталась одна буква. Тогда в России верхний сегмент был очень мал — даже не уверена, что его вообще можно называть сегментом. Было несколько крупных поставок различных систем — в основном это были «супердома» и мейнфреймы IBM. Но, учитывая динамику развития аналогичного рынка на Западе и рост применения там кластерных систем, Всеволод увидел большие возможности в этой области, и, собственно, со строительства этих кластерных систем и началась наша деятельность.
В 2003 году мы уже сделали для государственной российско-белорусской программы «СКИФ» в сотрудничестве с другими исполнителями программы первый большой суперкомпьютер. Тогда это действительно был суперкомпьютер, он даже попал в Top500, правда, оказался он на 407 месте, но всё-таки для России это была крупнейшая установка, в России до сих пор такого не было.
- А для чего он создавался и применялся?
- Для каких приложений, вы имеете в виду?
- Да.
- Это хороший вопрос. В то время в программе было предусмотрено, помимо собственно создания систем, разработка и развитие нескольких параллельных приложений — тогда это было совершенно новое направление, параллельных приложений русской разработки практически не существовало . По этой программе было создано несколько десятков приложений, которые все запускались на этой машине. Направления — климат, безопасность, аэро-космические исследования, ядерная физика, обработка результатов дистанционного зондирования Земли, молекулярная химия и так далее.
Там были, скажем, такие задачи, как прогноз ветрового переноса загрязнений при лесных пожарах, там были такие задачи, как распараллеливание одной из климатических моделей, которые Гидромет использовал, — модель Лосева, предпринимались попытки использования параллельного ANSYS — пакета инженерных расчётов прочности. В частности, «КАМАЗ» симулировал столкновение кабины грузовика с препятствиями для оптимизации прочностных характеристик конструкции.
Были и весьма забавные, казалось бы, задачи — так, для белорусской легкоатлетической женской сборной проектировались бюстгальтеры: рассчитывали оптимальные характеристики упругости материала. В общем, взяли весьма широкий спектр задач.
Этих усилий, конечно, было недостаточно для того, чтобы в России немедленно появилось большое количество промышленных приложений, которые могли бы работать на параллельных машинах. Промышленные приложения разрабатывались на Западе десятки лет, они активно используются в мире, и степень их параллелизма постепенно растет. Расчет был на то, что весьма многообещающий тогда промышленный сегмент начнёт использовать эти готовые параллельные приложения и применять их для новых разработок. Процесс оказался долгим и сложным.
Для начала у нас промышленность не очень-то пользуется и обычным CAD'ом, не говоря уж о компьютерном инженерном анализе(CAE), где требуются высокопроизводительные вычисления. Не так много изделий проектируется в цифровом виде. Президент в этом году сказал: "Первый самолет, который мы выпускаем в цифре, это «Сухой Суперджет». — то есть, это одно из первых крупных отечественных промышленных изделий, созданных на основе цифровых моделей, а не на ватмане.
В общем-то даже на Западе компаниям, которые давно используют CAD и PLM, не так просто перейти на HPC (высокопроизводительные вычисления). Для того, чтобы начать использовать эти технологии, надо переделать определённым образом — и иногда очень глубоко — весь процесс R&D на предприятии. А это тяжело. Специалисты, которые владеют расчётными технологиями, растятся не один год, естественно.
Забегая вперёд, скажу, что видя эту сложность в развитии сегмента HPC, мы создали в 2009 году дочернюю компанию, которая занимается предоставлением HPC как аутсорсинговой услуги полного цикла. — Далеко не все могут позволить себе собственный суперкомпьютер, и не каждому это нужно: это достаточно дорогое оборудование и ПО, которое нужно постоянно поддерживать, апгрейдить, и TCO достаточно высоко.
Такая машина потребляет довольно много электричества, она требует больших площадей, специфической инфраструктуры, и иногда на проекте суперкомпьютерные вычисления требуются в общей сложности скажем только 3 месяца в году. Ведь процесс проектирование у людей зачастую не сразу меняется революционно — некоторые его части сильно ускоряются с помощью масштабных вычислений, если люди имеют достаточно экспертизы чтобы такую масштабную модель разработать. Цикл R&D сокращается, но во всём цикле PLM высокопроизводительные вычисления — это не 90%.
Поэтому часто люди могут выиграть от возможности арендовать суперкомпьютерные мощности вместе с прикладным ПО для CAE, когда это необходимо, и «Т-Сервисы» предоставляет такую возможность. Однако в случае «Т-Сервисов» речь идёт не только и не столько об аренде, потому что наиболее эффективно — то есть так, чтобы деньги отбивались, — этой арендой пользуются только люди, которые хорошо владеют методиками суперкомпьютерного моделированияи прикладным ПО. Поэтому «Т-Сервисы» делает полный цикл расчётов: строит модель, подбирает ПО, интерпретирует результаты анализов и предоставляет рекомендации, которые следуют из этих результатов.
- То есть в «Т-Сервисах» есть специалисты, которые глубоко разбираются во всех направлениях, которые связаны с высокопроизводительными вычислениями?
- Ну, таких компаний, в которых есть специалисты, разбирающиеся вообще во всех областях, нет, и неизвестно, когда появится. У нас есть костяк сильных специалистов, имеющих большой опыт решения инженерных и промышленных задач — это три большие сферы: гидродинамика, газодинамика и прочностные расчёты. У нас есть специалисты по этим трём направлениям. Сейчас мы развиваем био- и нанонаправления, благодаря проекту, который мы выполняем для РОСНАНО.
В рамках проекта мы должны решить не менее 40 расчетных и модельных задач, половина из которых предназначены для разработок области нано. Свою заявку на решение задачи могут подать не только промышленные предприятия, но и исследовательские организации, при этом Роснано частично финансирует все услуги. Мы проводим конкурентный отбор этих заявок, который продлится до конца ноября, и готовим наиболее перспективные для Экспертного совета Роснано, который утверждает задачи к решению. Мы уже обработали 53 заявки, из них 10 приняты к решению, и очень скоро будет обсуждаться новая порция.
Возвращаясь к истории компании, должна сказать, что первая машина СКИФ К500 потребовала достаточно серьезных собственных разработок. Платы были готовыми, конечно, но, по требованию заказчика, в платформу нужно было интегрировать весьма специфический интерконнект, а также дополнительную отечественную сервисную сеть, а по тем временам это было достаточно серьёзной инженерной разработкой. Белорусские исполнители разработали собственные стойки для этой машины. Так что нельзя сказать, что это были просто купленные платформы, вставленные в шкаф и соединённые проводками. Там всё было несколько сложнее.
У нас в этот период были и другие поставки, но более мелкие, поскольку ничто не может сравниться по размеру с государственными заказами — для того, чтобы появился спрос на машины, кто-то должен на них посмотреть; никогда не бывает такого, чтобы просто кто-то пришёл и сказал: мне поставьте вот такое. Во всём мире самые крупные установки являются государственными заказами. Так было и будет всегда.
Следующей нашей крупной установкой по той же программе СКИФ был «СКИФ К1000» (2004 года). Он был уже в первой сотне Top500, 98-е место. Это были смешные по нынешним временам два терафлопа, но тогда это была первая сотня списка самых мощных компьютеров мира. За очень недолгое время производительность суперкомпьютеров сильно выросла — до этого темпы роста были куда ниже.
Это была платформа нашей собственной разработки, мы подбирали оптимальные компоненты, проводили улучшения системы охлаждения, и получили патенты на полезные модели платформ. Могу сказать, что разработки собственно плат не производилось, за исключение сервисной сети. Платы брались стандартные, но подбор, обеспечение совместимости и эффективной работы стандартных компонентных решений требовали определённой экспертизы, которая есть у производителей серверных платформ, и те исследования, которые мы проводили в то время, позволили нам ее усилить.
Следующей вехой стал 2006 год, когда мы поставили большой суперкомпьютер СКИФ-Cyberia, 12-терафлопный. По сути дела это не было уже программой СКИФ, а СКИФ-Грид ещё не был принят.
В тот момент мы уже почувствовали внимание государства к суперкомпьютерной отрасли. Понятно, что работа велась давно, но это был такой первый момент, когда на открытие СКИФ-Syberia приехал Председатель Госдумы Борис Вячеславович Грызлов, и к установке привлекли большое внимание.
Но это не вылилось в немедленные инвестиции государства в суперкомпьютинг. Да, они заинтересовались темой, для рынка это стало знаковым событием — в смысле, стало в каком-то смысле официально признано, что рынок суперкомпьютеров существует. Но пристальное внимание к этой отрасли начинается только сейчас.
В конце 2006 года мы впервые сделали собственную блейд-платорму. Почему? 1U-платформы — это, конечно, хорошо, но размер установки, которую можно собрать на U-платформах, конечно, очень ограничен, потому что это не слишком высокая плотность вычислений (количество терафлопс на место в стойке), это много проводов, много шкафов, а это высокое тепловыделение, и просто неоптимальная коммуникация между процессорами, большие задержки при обмене данными. Так что для HPC всё чаще стали применять блейды, хотя разрабатывались они изначально не для этого, а для энтерпрайза.
Первая наша блейд-система — это и первая российская блейд-система, до этого никто из наших интеграторов не пытался сделать что-то подобное. Это была первая серьёзная инженерная разработка на тот момент. Она была очень плотной, плотнее, чем у IBM и HP — то есть, на той же площади помещалось большее количество процессоров, чем у конкурентов. Но, это все еще были стандартные платы, стандартная память, стандартный интерконнект — просто всё это было грамотно скомпоновано и уложено. Под заказ были сделаны корпуса блейд-модулей и шасси, которые интегрировали компоненты в единое целое.
В 2008 году, в конце, мы представили новое поколение блейд-систем для HPC, где все платы были уже разработаны нами. Единственное, что было не нашим — микросхемы (процессор и контроллеры интерконнекта прежде всего). Даже модули памяти были наши собственные — то есть, сами чипы стандартные, иначе не было никакой возможности обеспечить совместимость с широким спектром приложений, если у вас собственные чипы памяти или, не дай бог, собственный процессор с другой архитектурой. Кто будет пользоваться этой машиной?
Те институты, которые разработали, скажем, на пару один большой программный пакет и работают только на нем, могут, конечно, позволить себе такие вещи как нестандартные процессоры и память, созданные специально под приложение — такие разработки были и до сих пор ведутся в единичных случаях. Бюджетирование таких организаций конечно взлетает к потолку. Но у нас-то такого нет. Поэтому, конечно, очень важно, чтобы память и процессоры были стандартными, что и осталось... И резисторы с транзисторами собственные разрабатывать никакого смысла конечно не было.
Но зато все электронные платы, которые обеспечили самую высокую на тот момент по отрасли плотность установки, были нашими разработками. И коммутаторы интерконнекта, которые были интегрированы в шасси, тоже были разработаны нами. В основе лежали технологии Mellanox, но платы были разработаны новые.
Высокую плотность удалось обеспечить во многом за счет эффективной системы охлаждения, которую мы разработали. Каждая плата выделяет около 570КВт тепла, и никто не пытался охлаждать такое решение воздухом. Люди экспериментировали и до сих пор экспериментируют с водой, но воздушное охлаждение с такой плотностью не проходило. А мы сделали радиатор, который полностью накрывает всю плату целиком, радиатор моделировали на суперкомпьютере.
Это действительно приходится моделировать, потому что непонятно, из какого материала и как он должен быть устроен, и какую конфигурацию он должен иметь, и в каком месте сколько и чего у него должно быть, чтобы нормально отводилось тепло, и при этом радиатор не был слишком тяжелым.
Мало кто задумывается о том, сколько весит вся эта установка, но если шасси слишком тяжелые — это не практично, потому что фальшполы приходится укреплять, в частности, очень сильно — это дополнительные расходы и не в каждом месте это вообще можно сделать. Поэтому, мы как могли старались сделать оптимальное соотношение между теплопроводимостью в нужных местах и весом.
И до сих пор эта разработка прекрасно нам служит, потому что и наше последнее гибридное решение на NVidia, которое мы показали буквально только что на GTC в Америке,использует тот же самый принцип — это тоже воздушноохлаждаемое шасси с подобным радиатором. Он модифицированный естественно, там другое расположение процессоров и других микросхем на плате, но принцип прекрасный, потому что получилось уместить 32 новейших процессора NVidia Tesla и 32 процессора Intel в шасси высотой 7U, что на GTC люди восприняли очень хорошо, потому что такого больше нет ни у кого. И при этом, воздушное охлаждение...
Следующая после 2006 года, наверное, самая мощная установка была уже в МГУ. Суперкомпьютер «Чебышев» –был создан в рамках программы «СКИФ ГРИД» . Собственно, это самая большая установка, которая была по этой программе создана – это «Чебышев» производительностью 60 терафлопс, который попал на 105е место в TOP-500. Мог стоять выше, но он попал в список только через полгода после установки.
Следующим этапом стал «Ломоносов». «Ломоносов» — это уже собственно приобретение МГУ, не связанное никак с Союзным Государством. Сейчас мы расширям его до 500 с лишним терафлопс, и уже объявлен конкурс на вторую очередь этой машины, где будет 800 терафлопс с гибридной архитектурой. Мы в ближайшее время подаем заявку на участие в нем с нашей новой системой на NVidia, которая называется TB2-TL. Обе очереди этой машины будут объединены единой системной сетью, и он сможет функционировать как единая система мощностью более петафлопса — это будет первая установка с такой производтельностью в России и одна из пока очень немногих в мире.
- А графические процессоры по сравнению с обычными, они какие преимущества имеют, в плане HPC?
- Один графический процессор дает примерно в 4 раза больше пиковой производительности на операциях с двойной точностью, чем обычный, потребляя не сильно больше электричества. В результате имеем в 4 раза более производительную систему с тем же энергопотреблением и примерно той же ценой — гораздо выгоднее для заказчика. Высокая энергоэффективность, то есть хорошее соотношение производительности на ватт потребляемой энергии, сейчас очень важна в отрасли, так как размер систем увеличивается быстро, а энергетические ресурсы в основном ограничены.
Графические процессоры не применялись для HPC изначально, так как раньше они обеспечивали высокую производительность только на операциях с одинарной точностью, которой достаточно, например, для обработки видео, но недостаточно для HPC, где требуется двойная точность и коррекция ошибок. Однако Nvidia его усовершенствовали, и теперь он дает больше пиковой производительности на операциях с двойной точностью чем процессоры с архитектурой x86. Из этого получается две вещи: во-первых, вы можете в один шкаф уместить больше терафлопсов, а во-вторых, вы получаете феноменальное соотношение производительности к энергопотреблению, которое напрямую зависит от плотности.
У нас в стойке с этим решением получается 105 Тфлопс пиковой производительности, тогда как для процессоров х86 это максимум 27Тфлопс. И энергоэффективность получается 1450 мегафлопс на ватт, что на данный момент почти вдвое лучше, чем у самой эффективной на данный момент системы в мире согласно списку Green500, где суперкомпьютеры рейтинга Тор500 ранжируются не по производительности, а по соотношению флопс на ватт.
Это не столько модная тема, сколько действительно технологическая необходимость по одной простой причине: дальнейшее расширение производительности систем, к которому все стремятся, невозможно без принципиально новых решений для улучшения энергоэффективности систем.
Сейчас бессмысленно пытаться строить суперкомпьютер мощностью в экзафлопс (в 1000 раз мощнее чем сейчас) не только потому, что к такой масштабируемости не готовы программные пакеты, но и потому, что такая машина будет иметь энергопотребление сравнимое с потреблением небольшого города.
Эксперты американского Министерства Энергетики, которое поддерживает разработки в области экзафлопс, поставили определенный предел энергопотребления для таких систем — 20 мегаватт. Но при тех технологиях, которые сейчас есть, с учетом их прогнозируемого развития, мы сильно не дотягиваем до этого порога. Экзафлопс будет потреблять на порядок больше, если не будет придумано что-то кардинально другое.
Поэтому, все разработки сейчас направлены на то, как снизить энергопотребление и увеличить вычислительную мощность, которую мы получаем за эту энергию.
Сейчас эффективность лучшей системы в мире — 773 Мегафлопс на ватт. Это система в Суперкомпьютерном центре Юлиха в Германии с очень специфической архитектурой на базе процессоров Cell, которые совместимы с довольно узким спектром приложений и на данный момент больше не выпускаются. Nvidia сейчас обходит всех по этому параметру, но его совместимость с существующими приложениями, конечно, тоже ограничена, хотя и не так сильно.
Приложения нужно адаптировать к архитектуре графических процессоров, хотя в случае с NVidia и средой разработки CUDA это проще, чем с Cell. От того, как разработчик ПО использовал эту архитектуру, ее особенности и возможности, зависит, насколько большое ускорение своих расчетов он реально получит. Сейчас количество адаптированных к NVidia приложений набрало некоторую критическую массу, на наш взгляд, и сентябрьская выставка GTC в Америке это подтвердила. Самый популярный инженерный пакет ANSYS, например, для некоторых задач обеспечил поддержку Tesla, и многие другие вендоры активно движутся в этом направлении.
- А помимо МГУ кто сейчас ваши основные заказчики?
- Пока это в основном университеты и исследовательские институты. В У вузов всегда был высокий интерес к новому оборудованию, у них есть время и человеческие ресурсы чтобы осваивать новые решения. К счастью, например, в 2006 году вузы получили возможность приобретать суперкомпьютеры благодаря поддержке государства: была специальная программа, по которой вузы могли получить средства на развитие инновационных программ, многие из которых включали развитие в области высокопроизводительных вычислений. Томский ГУ был одним из таких вузов и многие их них стали нашими клиентами. Конечно, суперкомпьютерами пользуются и другие государственные организации, которые, например, ведут исследования в области безопасности.
У нас есть и база промышленных заказчиков — это такие предприятия как ЛМЗ, ОКБ «Сатурн», нефтесервисная компания и разработчик ПО для нефтеразведки Paradigm Geophysical, ЦНИИ им. Крылова, с которым мы сейчас сотрудничаем по линии «Т-Сервисов», недавно появились новые заказчики из нефтедобывающего сектора в Казахстане. Однако промышленных заказчиков пока не так много, и это чаще всего КБ и НИИ, а не собственно производственные компании.
Это обусловлено тем, что у коммерческого сегмента с HPC в Росси пока не очень складываются отношения. Пока этими технологиями пользуются те немногие предприятия, которые активно занимаются новыми разработками на мировом уровне. Таких немного, и у некоторых из них давно сформировалась такая вещь, например, как корпоративный стандарт вендора в IT. Например, на предприятии могут стоять рабочие станции IBM либо HP, а также масса другого оборудования, которое производят эти компании. В этом случае за суперкомпьютером они скорее всего обратятся к тому же вендору.
Тем более, если им для промышленных задач не нужна в настоящий момент сверхпроизводительность, высокая плотность или энергоэффективность. Они могут купить стандартную среднюю систему и соответствовать «корпоративному стилю». Наша специализация — это все-таки hi-end, это нечто новаторское, чего не делают другие вендоры, нечто, что тем, кто ставит для себя амбициозные цели в суперкомпьютинге.
Мы, правда, развиваем сейчас и линейку продуктов в среднем диапазоне производительности — там где сейчас лидируют HP, Dell, Supermicro. В будущем году мы выводим на рынок сразу несколько решений для этого сегмента, с очень хорошим соотношением цены и производительности, а также мини-суперкомпьютер в настольном форм-факторе.
В России, собственно говоря, как и во всем мире, существует очень широко сейчас обсуждаемая тема, которую называют missing middle (недостающая середина). Средние и менее производительные решения в основном для них. Это множество компаний, которые применяют компьютерное проектирование, но не перешли еще на высокопроизводительные вычисления. Но, как я уже говорила, для того, чтобы облегчить им этот переход, просто эффективных с точки зрения цены аппаратных решений недостаточно.
В Америке есть сразу несколько механизмов, помогающих компаниям — в основном они касаются доступа к большим суперкомпьютерам на конкурсной основе. В Европе есть свои механизмы. Еврокомиссия например поддерживает масштабный многолетний проект под названием PRACE, в рамках котрого должна быть построена новая европейская суперкомпьютерная инфраструктура и обеспечен доступ к ней, в частности, для промышленности. Науку в этом смысле они поддерживают давно. Например по программе HPC Europa Еврокомиссия оплачивает суперкмопьютерным центрам процессорные часы и некоторые консалтинговые услуги для исследований, которые по конкурсу получили право на использование той или иной машины, а также оплачивает проживание и транспротные расходы для исследователей.
Любой исследователь может подать заявку на проведение исследования на любой машине в Евросоюзе, и получить грант на работу в выбранном суперкомпьютерном центре. PRACE также пытается привлечь промышленность к использованию академических суперкомпьютерных центров, но рабочих механизмов такого рода, удобных для промышленных компаний, пока очень мало.
В Европе есть небольшое количество центров, которые традиционно много считают для промышленности. В Штуттгарте есть государственный суперкомпьютерный центр HLRS, например, который специализируется на промышленных заказчиках. Но он предоставляет только процессорные часы — даже ПО заказчики устанавливают свое. И у него достаточно узкая клиентская база: основные заказчики сейчас это Porsche и Airbus.
- В пресс-релизе о выделении Внешэкономбанком средств говорится, что это сделано с целью выхода на западный рынок. Для чего «Т-Платформам» выходить на западный рынок?
- Дело в том, что в России пока нет уже работающих на данный момент программ, которые нацелены на разработку суперкомпьютерных технологий, как в США и Европе. В Америке их несколько, и там общее финансирование этих программ измеряется миллиардами. Crayи IBM, например, только по одной из программ агентства DARPA получили по 250 млн долларов на новые аппаратные разработки – в результате чего появился, например, суперкомпьютер RoadRunner, который впервые в мире преодолел петафлопсный барьер производительности. У нас такого нет, поэтому, чтобы вкладывать достаточное количество денег в R&D, нужно иметь достаточно большой оборот.
Чтобы его достичь, нужно оперировать на достаточно крупном рынке, большой рынок, где есть не только отдельные крупные сделки, но много и небольших, от реализации которых можно получать определенный стабильный приток средств в течение всего года. У нас рынок устроен в этом смысле не слишком удачно, не только из-за меньшего размера. Большинство крупных государственных и академических тендеров у нас проходят под конец года. Сейчас ситуация совсем жёсткая: конкурсы объявляются в последний момент, и чуть ли не через месяц или два нужно все поставить.
А многие академические тендеры сейчас играются к тому же на условиях полной постоплаты, без авансового платежа. То есть, чтобы поставить систему, мы должны сначала прокредитовать государство на стоимость этой системы. В таких условиях тяжело, практически невозможно работать, Чтобы получить стабильный приток средств, необходим более развитый рынок, где на регулярной основе проводится прогнозируемое количество трендоров, в которых можно участвовать и делать поставки весь год. Именно для этого нам нужен Европейский и мировой рынок — без этого мы не сможем достаточно много средств вкладывать в разработки.
- А не опасаетесь, что на Западе все и так заселено достаточно плотно?
- Нет. В принципе, было бы логично предположить, что там уже все занято, но не все так просто, потому что в Европе, например, количество локальных вендоров, разрабатывающих собственные технологии, очень мало. Фактически на Европейском рынке мы конкурируем с американскими вендорами, а также такими производителями как Bull и Eurotech. Правда, последний появился совсем недавно, и инсталляций в Европе пока нет, а Bull — компания с очень широким спектром продуктов и услуг, традиционно сильная в других сегментах IT-рынка и пока не разрабатывающая решений, специализированных для HPC, особенно для верхнего сегмента.
Поэтому европейское сообщество пользователей, как показали наши переговоры, заинтересовано в появлении альтернативного вендора, и нас они зачастую воспринимают скорее как европейцев — лучше, чем американцев или компании из Юго-Восточной Азии, например. Для них очень важно то, что мы готовы вкладываться в разработку европейских технологий. Например, это касается нашего сотрудничества с Университетом Гейдельберга для выпуска на рынок нового интерконнекта, специализированного для сверхбольших суперкомпьютерных установок.
У нас не было серьезных планов на Америку до выставки GTC. Однако на выставке некоторые крупные заказчики проявляли достаточно серьезную готовность купить решение на базе TB2-TL, для того, чтобы опробовать новую перспективную технологию. И видя живой интерес, мы, конечно, не исключаем возможности выхода на американский рынок, хотя для выхода туда нужно будет решать много вопросов, в том числе и с поддержкой.
- У вас получается такая ситуация, что раз «нет пророка в своем отечестве», то — возвратимся оттуда?
- Да, именно так. Мы пока не можем на российском рынке получать достаточный доход, чтобы продолжать интенсивно развиваться. Получается замкнутый круг. С одной стороны мы ставим себе задачу максимально стимулировать рост отечественного суперкомпьютерного рынка и развитие отечественных технологий. Но создание новых технологий — гораздо более затратная вещь, чем чисто интеграторские проекты на базе готовых решений, уже разработанных кем-то другим. Поэтому в нашей ситуации мы должны выйти на западный рынок, чтобы продолжать создавать российские разработки. По-другому просто не получается.
Кроме того, экспорт российских технологий на Запад принесет пользу не только Западу, но и России. Например, работая с западными заказчиками мы имеем возможность непосредственно наблюдать, как люди используют HPC-системы на практике, и переносить этот опыт и методы в Россию. Это позволит нам предлагать предприятиям оптимальную стратегию развития HPC для их задач, которая будет базироваться на готовом опыте; лучше объяснить и показать, какие выгоды они получат. Потому что даже если у предприятия есть деньги, оно должно иметь возможность просчитать уровень возврата инвестиций, чтобы вложить их в HPC, особенно если речь идет не о настольном «персональном кластере». И просчитать его гораздо проще, если есть доступ к аналогичному опыту.
Для вузов и исследовательских организаций это тоже может быть полезно, так как Европа сейчас заинтересована в совместных разработках, в том числе в сфере высокопроизводительных вычислений, и мы можем здесь служить своего рода проводником. Еврокомиссия, например, с нетерпением ждет того момента, когда сотрудничество с Россией в области исследований и разработок приобретет более реальные очертания и принесет успешные результаты. Наша активность в Европе и усилия, которые мы предпринимаем, чтобы связать европейских и российских пользователей HPC, может послужить поводом к тому, чтобы начать заново, с новой точки.
К оглавлению
(обратно)ABBYY помогает программистам с переводом Андрей Письменный
Опубликовано 02 ноября 2010 года
Недавно компания ABBYY открыла раздел "Локализация" на сайте Forum Nokia. Он призван помочь разработчикам, готовящимся переводить свои программы на другие языки. Похоже, что для Nokia это один из шагов по поддержке российских производителей ПО (о повышенном внимании к ним можно судить по словам Алексея Кокина, менеджера Nokia по взаимодействию с разработчиками, недавно давшего интервью «Компьютерре»).
Интерес ABBYY к этой затее тоже вполне очевиден — поддержать Language Service и привлечь людей, заинтересованных в локализации программных продуктов. О том, как работает компания и как она связана с основным бизнесом ABBYY, нам рассказал Иван Смольников, генеральный директор ABBYY Language Services.
- В двух словах — какие услуги предоставляет ABBYY Language Service?
Основная деятельность ABBYY Language Services – комплексное лингвистическое обслуживание корпоративных заказчиков, разработка и внедрение инновационных лингвистических сервисов и технологий. Компания занимается локализацией ПО, сайтов, письменным и устным переводом, а также предоставляет другие услуги, связанные с переводом текстов и устной речи. Мы разрабатываем ряд лингвистических технологий: систему проектного управления для отделов перевода крупных компаний (TMS), систему управления терминологией Translation Memory и сводящей эти подсистемы воедино «облачной» системой совместной работы переводчиков, редакторов и прочих специалистов.
- Речь идёт только об английском языке или возможен перевод на другие?
Компания работает более чем с 60 языками, в том числе и с редкими (малайский, македонский, индонезийский и т.п.). Причём языковые направления могут быть как в паре с русским языком, так и «иностранный-иностранный».
- Среди клиентов перечислены довольно крупные компании. Сервис нацелен в первую очередь на них, или небольшие фирмы (частные лица) тоже могут обращаться в ABBYY Language Service?
Объёмные и технологически сложные проекты выполняются в основном для крупных корпораций. У нас обслуживаются более 10 из ТОП-100 мировых брендов. Однако, по факту клиентская база достаточно диверсифицирована. На данный момент компания обслуживает (регулярно или эпизодически) более 10000 клиентов, среди них — самые разные по масштабу компании. Крупных среди них — не более тысячи. У небольших компаний часто бывают очень интересные проекты, например, по локализации компьютерных игр или какого-либо программного обеспечения, на котором специализируется та или иная организация.
Частные лица также могут обращаться в ABBYY Language Service. Чаще всего заказывают экспресс-перевод деловой переписки или небольшой статьи (для этого работает специальный сервис на ABBYY Online), нотариальные заверения перевода личных документов и апостиль.
- Как долго функционирует это направление бизнеса?
Изначально бизнес существовал в качестве независимой компании под брендом «Переведем.ру», которая была основана в 2003 году. С 2007 года компания вошла в группу ABBYY. С тех пор появился новый бренд ABBYY Language Services, а «Переведем.ру» теперь используется как брэнд для сервисов онлайн-перевода и перевода телефонных переговоров.
- Компания ABBYY выпускает электронный словарь, но больше, на первый взгляд, никак не связана с переводом. Как родилась идея начать предоставлять подобные услуги?
ABBYY выпускает не только электронный словарь, но и другие лингвистические технологии, например, Lingvo Content и ABBYY Aligner. Lingvo Content – это система для разработки и управления словарными базами, а ABBYY Aligner – по созданию баз памяти перевода. Сейчас у нас проходит бета-тестирование система для профессиональных переводчиков Lingvo.Pro. Также готовятся к выпуску платформы для управления проектами переводов и система для онлайн-работы переводчиков и редакторов.
- Какие технологии ABBYY используют специалисты Language Service? Сразу представляются централизованные словари на основе Lingvo или ещё что-нибудь высокотехнологичное.
Да, у нас используется целый ряд интересных технологий. Есть два направления – проект-менеджмент и технологии, используемые в процессе перевода.
Система управления бизнес-процессами позволяет автоматизировать все рутинные операции. Взять, к примеру, онлайн-перевод: регистрация заказа, расчёт стоимости и оплата производятся автоматически. Менеджеру обычно остаётся только отправить файл на перевод. Да и для заказчика это удобно – вся информация по проектам хранится на персональной странице клиента, доступной на нашем сайте в любое время.
Что касается переводческих технологий, кроме Lingvo специалисты пользуются различными программами по управлению памятью переводов и терминологией. Это такие программы, как уже упомянутый ABBYY Aligner, централизованная серверная система Translation Memory собственной разработки, серверная система управления корпоративными многоязычными глоссариями, а также онлайн-платформа, обеспечивающая одновременный совместный доступ переводчиков, редакторов, корректоров и менеджеров проектов ко всем перечисленным ресурсам в режиме реального времени.
- Инициатива, связанная с Forum Nokia — единственная в своём роде или есть другие примеры такого сотрудничества?
Инициатива с Forum Nokia – это пилотный проект. Параллельно обсуждаются и другие, но они пока на стадии согласования. Надеемся, эта инициатива будет полезной для российских разработчиков программного обеспечения под мобильные платформы (и не только).
- Планируется ли развитие сотрудничества с Nokia? К примеру, предоставлять разработчикам услуги по переводу в рамках Forum Nokia, а не только консультировать.
Да, конечно. Мы готовы выполнить локализацию приложений для всех желающих участников Forum Nokia. У нас накоплен значительный опыт в локализации под Symbian, он позволяет выполнять такие проекты качественно и с минимальными затратами.
К оглавлению
(обратно) (обратно)Терралаб
Чистое будущее с инновациями от Delta electronics Фёдор Кустов
Опубликовано 01 ноября 2010 года
- На правах рекламы
Предоставлять инновационные, энергоэффективные и экологически чистые решения для повышения качества жизни — такова миссия компании Delta Group, основанной в 1971 году. Сегодня компания представляет собой крупнейшую мировую корпорацию с годовым оборотом свыше 6 млрд долларов США. Эта цифра вполне подтверждает звание Delta как лидера в нескольких областях, — в области силовой электроники, в телекоме, в промышленной автоматизации, в фотоэлектричестве и др.
Delta Group имеет офисы продаж по всему миру и заводы в Европе, Америке, Китае, Мексике, Индии. На российском рынке Delta известна своим качественным телекоммуникационным оборудованием, — компания входит в первую тройку лидеров по его производству. Поддерживать имидж компании, являющейся первой не только по производственным показателям, становится уже делом чести. В основном компания специализируется на OEM производстве, выпуская широкий спектр различной продукции и воплощая в жизнь крупнейшие уникальные проекты: от сетевого оборудования для известнейших мировых брендов до строительных объектов с использованием солнечных источников питания. Важнейшими конкурентными преимуществами компании являются высокая экологическая ответственность и эффективное использование энергии.
Экологическая ответственность и эффективное использование энергии
Стремясь к увеличению эффективности и постоянному развитию, Delta непрерывно занимается научными исследования и разработками. Их основная цель — усовершенствовать характеристики и функции, которые позволят использовать продукцию компании проще и эффективнее, без вреда для окружающей среды. Сегодня рост экологических проблем и ограниченность ресурсами касается каждого. Также ни у кого не вызывает сомнений актуальность темы возобновляемых природных ресурсов, экологичных и энергоэффективных технологий. Архитектурно-строительный рынок стал одним из первых, где внедряются подобные технологии, поскольку их использование значительно снижает затраты на эксплуатацию.
Компания Delta не отстала в этом направлении, став лидером в проектировании эко зданий (Green Building).
Освоение альтернативных источников электроэнергии компания Delta начала с себя. Ее фабрика в Тайбэе полностью отвечает концепции Green Bulding («зеленого здания»). Основным источником электроэнергии для нее являются солнечные батареи, расположенные на крыше. Кроме того, фасад здания спроектирован таким образом, чтобы избежать его нагрева и сократить использование кондиционеров.
Одним из уникальных и интереснейших проектов Delta стал стадион в Тайбэе, построенный к чемпионату мира по легкой атлетике в июле 2009 года. Это первый в Азии стадион, крыша которого полностью покрыта солнечными панелями. Стадион напоминает дракона, если взглянуть на него с высоты птичьего полета, его навес представляет собой огромную солнечную батарею состоящую из 8 844 панелей вырабатывающих впечатляющее количество электроэнергии — приблизительно 1,14 Гигаватт-часов в год.
Зачем это нужно?
Сегодня в любой отрасли компании предпринимают шаги для уменьшения затрат на электроэнергию. Delta разработала и выпускает на рынок такие источники бесперебойного питания, которые позволяют клиентам сократить издержки, и, следовательно, повысить эффективность своего бизнеса. Источники бесперебойного питания Delta обеспечивают непрерывную работу на различных объектах: от частных домов до крупнейших промышленных предприятий; центров обработки данных, банков, медицинского и промышленного оборудования.
Если обратится к истории, ИБП Delta Electronics вышли на российский рынок еще в конце 2007 года. Некоторое время компания «осматривалась», не став форсировать события и решив встраиваться в систему постепенно. Но затем пошло активное наращивание объемов продаж. Кроме того, экономический кризис 2009 года сыграл только на руку Delta. В то время, когда ценовой фактор стал определяющим для всех игроков рынка, собственная производственная база Delta способствовала большей эластичности по цене. В результате, уже в 2009 году компания осуществила ряд крупных и серьезных проектов, продолжив динамичное развитие в 2010 году. Например, Delta обеспечила бесперебойным питанием центр обработки данных (ЦОД) крупнейшего портала Рунета Mail.ru. До этого портал в течение нескольких лет инвестировал большие суммы денег на услуги ЦОД, принадлежавшие другим компаниям. В 2008 году было принято решение о строительстве собственного Центра хранения данных. Здание было построено, сегодня в нём серверная система состоит из 12400 серверов с потребляемой мощностью более 2,1 мегаватт. Бесперебойное питание должно было защищать всё компьютерное оборудование и обеспечить работу для миллионов пользователей в режиме 24 часа в сутки 7 дней в неделю. В 2008-2009 годах в мире разразился глобальный финансовый кризис, и Россия оказалась в числе стран, которые подверглись наибольшему удару. Компания Mail.ru хотела управлять всем проектом ЦОД, используя собственные ресурсы, без привлечения внешних системных интеграторов. Delta за счёт хорошо развитого собственного производства в кризисное время помогла порталу не только выполнить задачу на все 100-%, но и сократить затраты на её реализацию.
К оглавлению
(обратно)Софт: Защищаем компьютер с помощью BitDisk Софья Скрылина
Опубликовано 02 ноября 2010 года
Функционал BitDisk включает необходимый минимум операций. По сути, их всего три: включить защиту, выключить защиту и записать изменения, произведенные пользователем в защищенном состоянии. Кроме того, можно установить пароль на выполнение этих операций.
Панель управления содержит всего четыре кнопки:
- включить защиту; - выключить защиту; - сменить пароль; - записать изменения.
В процессе работы BitDisk не создаёт образ системы и все изменения фиксируются в специально отведённой области диска, что позволяет вернуть систему в первоначальное состояние после перезагрузки компьютера.
Программа не заменяет антивирус, хотя включение защиты может предотвратить заражение. Важно понимать, что BitDisk не создаёт и резервных копий. Полноценно обезопасить систему и данные можно только комбинируя различные средства.
Утилита доступна в трех версиях:
- BitDisk PRO для общественных компьютеров. После установки она практически не обнаруживает своего присутствия в системе; - BitDisk 7 - наиболее дружественная в плане интерфейса версия для самого широкого круга пользователей; - BitDisk Free - бесплатная для домашнего использования версия с ограниченном функционалом.
К оглавлению
(обратно) (обратно)Колумнисты
Василий Щепетнёв: Идентификация И. Василий Щепетнев
Опубликовано 01 ноября 2010 года
Черно-белый мир — не самое плохое место для жизни. Все ясно — по крайней мере для тех, кто умеет читать чертежи или хотя бы газеты. Ведь и чертеж, и газета являют собой подобие черно-белого мира, и очень привлекательное подобие: стоит только выучиться грамоте, и тогда перспективы открываются просто ошеломительные.
Но порой возникает ощущение, что нам навязывают иной вариант: мир либо белый-белый, либо черный-черный. И много ли помогут навыки чтения, если в книге только белые страницы? Или только черные? Темное прошлое, светлое будущее — и никаких вопросов. О чем спрашивать, если тьма глаза застилает, а свет слепит?
Итак, стоит себе служащий в отведенной графе, жует, что дают, и мечтает о светлом будущем, когда к власти, наконец, придет интеллигент, и уже в предвидении исходящего от вождя-интеллигента сияния слезы умиления обильно орошают впалые ланиты страдальца. Он, новый-то вождь, непременно увеличит жалование народной интеллигенции, повторяет служащий мечту учителя из «Чайки» Чехова.
Но давайте успокоим служащего, вытрем его, а заодно и собственные слезы батистовым платочком Камиллы де Буа-Траси (тем самым, который выпал из кармана Арамиса), вытрем и приглядимся в пока еще не совершенно темное прошлое. Разве не было у нас интеллигента у власти? В силу размытости термина почти любую кандидатуру можно оспорить, но, опять же в силу этой размытости, отчего бы и не проверить вождей на интеллигентность? А там пусть доказывают, что не интеллигенты.
Взять хорошее увеличительное стекло, желательно в бронзовой оправе (Шерлок Холмс, полагаю, именно таким и пользовался), и приглядеться к портретам, некогда покрывавшим стены больших зданий, а сегодня если найдутся открытки с таковыми, уже удача. Или отыщутся старые почтовые марки — вот она, польза филателии! Луначарский, Бухарин, Радек... Не то, чтобы совершено не интеллигентные фигуры, но все-таки... Тогда уж Крупскую с Фурцевой для вала.
Но разве это власть? Даже в Великой Гвазде видят, кто царь, а кто исполняющий обязанности дьяка. Повыше, повыше смотреть нужно. Хрущев, что «зимой посещал начальную школу»? Да уж... Ну, а Леонида Ильича Брежнева мое поколение нагляделось досыта. Всяко о нем говорили, но интеллигента в спину не пускали. Михаил Сергеевич Горбачев? Не разглядеть, слишком близко стоит. Вот шурин его, интереснейший писатель Евгений Титаренко — тот, безусловно, интеллигент, а Горбачев виден смутно... Иногда в сумерках принимаю его за Керенского.
Это я, как легко догадаться, подбираюсь к главной загадке отечественной истории двадцатого века, к товарищу Сталину. У Сталина совершенно отчетливо, ярко и несомненно проступают отличительные признаки российского интеллигента — жажда знаний, неуемный интерес к науке, тяга к искусству, культ чтения и — совсем по Боборыкину — нетерпимость к социальной несправедливости.
Как именно он боролся с социальной несправедливостью, не есть предмет данного текста. Просто рассматривая миры, где Сталин в детстве погибал под колесами фаэтона, в революцию умирал от гриппа или тифа, в двадцать четвертом был отравлен товарищами по партии, в тридцать первом неудачно ремонтировал настольную лампу в кабинете, в судьбе России изменений к лучшему я не находил. Но об этом в другой раз. А в этот — вот что: не является ли Иосиф Виссарионович классическим примером интеллигента во власти? Не претендую дать исчерпывающий, развернутый, бесспорный ответ.
Люди пишут годами многотомные солидные книги, опираясь на общеизвестные документы, на секретные архивные материалы, на свидетельства современников, порой даже вовсе ни на что не опираясь. Я претендую на вопрос — и только. Разумеется, мне не трудно кратенько пересказать биографию вождя, подчеркнуть, что Сталин после исключения из семинарии получил свидетельство о том, что может служить учителем начальных народных училищ (чеховским Медведенко), изложить историю Джугашвили-поэта, стихи которого включались в рекомендуемую для школы хрестоматию (рекомендуемую до революции, а не после), дать обзор «Сталин и театр», указать на роль товарища Сталина в становлении современного кинематографа, а еще о том, как проходили собрания комитета по присуждению Сталинской премии, и еще, и еще, и еще много раз.
Но я полагаю, что мой читатель это знает, и, не исключаю, знает и другое. Лучше повторюсь еще раз, уже в виде утверждения, а не вопроса: Сталин — это российский интеллигент, ставший, ценою определенной коррекции личности, лидером огромного государства. Все его поступки интересно рассматривать именно с этой позиции, с позиции интеллигента, получившего власть, причем получившего не волею случая, не подарком от умирающего Ленина, а собственными усилиями, потому знавшего ей цену наверное.
И тогда многие события в истории Советского Союза предстают в совершенно непривычном ракурсе.
К оглавлению
(обратно)Кафедра Ваннаха: Угрозы и технологии Ваннах Михаил
Опубликовано 02 ноября 2010 года
23 октября 2010 года в Соединенных Штатах произошло очень интересное событие. Оно не сопровождалось роскошными визуальными эффектами, вроде тех, которые наблюдались при прекращении эксплуатации орбитальных челноков Challenger и Columbia, приковавших к себе внимание всех телезрителей планеты. В отличие от 9/11, о котором знают даже те, кто телевизор не смотрит, человеческих жертв не было вовсе. Но то, что случилось в штате Вайоминг, в не меньшей степени связано с технологиями, чем катастрофы в ходе реализации космической программы США, и потенциально могло привести не к нескольким тысячам жертв, как теракт в Башнях-Близнецах, а к уничтожению если не всего человечества, то современной цивилизации-то точно…
Дело в том, что 319-я ракетная эскадрилья, входящая в состав 90-го ракетного крыла ВВС США, и насчитывающая полсотни межконтинентальных баллистических ракет LGM-30 Minuteman, потеряла связь с центром управления. Связи не было в течение 45 минут. Главнокомандующему, счастливому обладателю овального кабинета и ядерного чемоданчика, президенту Обаме, об инциденте доложили лишь в следующий вторник – ну зачем волновать человека какими-то техническими подробностями. Ну а мы подробности приведем – каждая ракета Minuteman III может доставить свою полезную нагрузку на дистанцию 13000 километров от базы Уоррен. А нагрузка эта – три маневрирующих боеголовки, вероятно типа W87, мощностью от 300 до 475 килотонн тротилового эквивалента каждая. (Точнее вряд ли кто скажет – механизмы контроля, предусмотренного международными соглашениями, несколько ассиметричны, и не в нашу пользу…) Под угрозой оказалось 450 целей. Взлететь-то ракеты могли – не было управления. И неясно почему. То ли подземный кабель. То ли что-то с питанием…
Очень смешно! Речь-то идет о стратегическом ядерном оружии. По официальной версии – предназначенном для ответного удара. Рвутся на стартовых позициях советские или китайские боеголовки, а значительная часть ракет всё равно должна быть способной, получив приказ, выйти из шахт и пойти к целям. А тут никакого ядерного удара, никаких электромагнитных импульсов, никаких сейсмических волн от наземных или заглубленных взрывов… А связь потеряна. Самое время поговорить об угрозе, которую развитие технологий влечёт для человечества! Тем боле на научно-технических новостных лентах мелькают всё новые и новые сведения о роботах, принимаемых на вооружение армиями различных стран. Не имеем ли мы дело с первым актом восстания машин?
Ну, прежде всего, давайте отметим очень простую вещь – развитие технологий делает мир безопасней. Ну, одна из любимых тем массовых медиа – пагубность современного образа жизни для здоровья человека. А давайте-ка сравним нынешнюю статистику с данными по Российской империи, годы 1890-1894-й, бурный экономический рост, лет двадцать назад местное общественное мнение полагало эти годы образцом безмятежного счастья. Так из 1000 родившихся подданных православного вероисповедания (исповедание приведено энциклопедией Брокгауза потому, что органов статистики по стране в целом не существовало, а учет актов гражданского состояния возлагался на духовенство) не дожив до года(!) умирало 300 мальчиков и 265 девочек… Однолеткам в среднем оставалось жить – мальчикам 27 лет и 3 месяца, девочкам – 29 лет и 5 месяцев. Прирост – это заслуга технологий. Вода там, холодная и горячая, гигиена, антибиотики, холодильники… (Падение продолжительности жизни в постсоветский период – явление сугубо социальное, просто одни, как вампиры, выпили жизнь у других!)
Но ведь развитие технологий чревато катастрофами? Да, конечно! А в традиционном обществе пылали пожары. Вот в 1885-м в Гродно сгорело 517 домов, в Оренбурге в 1888-м – 713, в Ветлуге в 1890-м – 1128, в Бресте в 1895-м – 1232... Организационные мероприятия, вроде страхования, размазывания рисков по значительному числу обладателей имущества, возможны были лишь на определённом уровне технологического развития. 28 июля 1786 года Екатерина Великая повелела, чтобы «государственный заёмный банк в обеих столицах и во всех городах состоящие каменные дома принимал на свой страх…». Каменные! Дом из камня, крытый железом, был подвержен риску пожара в 18 раз меньше, чем милый сердцу «зеленых» и прочих ревнителей старины деревянный, крытый соломой. Их страховать идиотов не было – ведь в уездном Землянске Воронежской губернии в 1892 году выгорело 128% построек (нет-нет, это не как голосование за власть в некоторых регионах, просто строения успевали в течение года отстроить для следующего пожара.) И гужевой транспорт в пересчёте на пассажиро-километр много опасней даже автомобильного, даже учитывая, что значительную часть водителей надо бы судить за покушение на массовое убийство общеопасным способом…
Ну а оружие – ведь чем больше деталей и узлов в нём, тем оно опасней? Хм… Ну вот в бомбарде начала европейской артиллерии была единственная деталь – литой ствол. А стрелять из неё приходилось сделавшему орудие мастеру – лить без раковин научатся лишь через века. Зато был ему почет, столование с бароном-разбойником или кондотьером, индульгенция от всех проступков, кроме мятежа… Ну а во время всего ядерного противостояния холодной войны технические проблемы (горящие в шахтах ракеты, падающие бомбовозы) ни разу не привели к выходу системы (Системы ядерных сил в целом) из под контроля.
И внушающие ныне страх роботы. Как же – железка может открыть огонь, самостоятельно начать уничтожать людей. Но вот к нашим услугам материалы ВикиУтечки по Ираку и Афганистану. Давайте сравним – сколько погибает гражданских из-за ошибок роботов, а сколько – из-за ошибок обычных пехотинцев да спецназовцев? А ещё – местные союзники, насаждающие демократию и конституционный строй с помощью традиционных местных методов… Не возникает ощущения, что железяка (ну не железяка – даже корпуса пистолетов ныне пластик, забавно на этом фоне смотреть, как ИТ-маркетологи и их жертвы гордятся металлическими корпусами…) побезопасней будет? Солдату-то после боя не объяснишь, что из-за того, что на дворе политкорректность город ему на три дня не полагается… А роботу – вполне!
Но ведь инцидент, с которого мы начали речь, противоречит всему вышеизложенному – налицо временная потеря контроля над тем, на чём стоит современное мироустройство – над стратегическими ядерными силами. Да нет… Просто тут дело – не в технологии. Или, точнее, в том, что технологии слишком надежны и слишком производительны. Из-за этого у властей возникает соблазн не заниматься ими. Там же и так всё хорошо… А время можно потратить на более приятные вещи – речи перед избирателями, борьбу за права белок! Ну а старение ракет (Minuteman III на вооружении с 1970-го, найдите в своем доме вещь, кроме семейных раритетов, сделанную по технологиям 1960-х ) – хочется ли этим заниматься? Да и откуда им знать об этой проблеме – современные власть имущие технического образования ведь не получают. А какой же разумный эксперт станет докладывать начальнику о неприятном? (Именно это, видимо, и было главной причиной гибели американских астронавтов-челночников – неразумных экспертов их разумные начальники к отцам нации просто не пустили.) Так что на третьей от Солнца планете идут параллельные процесса – граната в руках обезьяны становится всё мощнее и надёжнее, это заслуга технологий. А обезьяна всё меньше и меньше знает и о мощи, и об устройстве гранаты, и о назначении чеки да предохранительного рычага. А итог подведёт лишь время…
К оглавлению
(обратно)Анатолий Вассерман: Лицензии Microsoft Анатолий Вассерман
Опубликовано 02 ноября 2010 года
К оглавлению
(обратно)Василий Щепетнёв: Броня для "Я" Василий Щепетнев
Опубликовано 03 ноября 2010 года
Жизнь в зеленых лесах и голубых лагунах, слияние с природой и прочие идиллии, с той или иной степенью прибыльности продаваемые публике, проверку практикой выдерживают плохо. Не желает человек слияния с природой, ему необходима граница, вот здесь природа, а здесь я, и моего — не замай. Потому границу нужно крепить.
Собственную нежную и тонкую кожу покрывают шкурой убитого зверя, а если зверей на всех не хватает, то разного рода тканью, сначала натуральной, а потом и синтетической.
Но этого мало, требуется оболочка покрепче, и люди заселяют пещеры. А поскольку пещер тоже на всех не хватает, человек строит дом, и чем толще стена жилища, тем опять же лучше.
Потому и передвигаться по местности лучше в автомобиле, желательно — бронированном, не столько потому, что быстрее (иногда быстрее на метро), а просто чтобы не было физического контакта с окружающей средой.
Человек защищается от дождя и снега, от диких зверей, но пуще всего — от других людей. Понятно, что крепить личную границу приходится в рамках личного бюджета, и каждый не может позволить себе замок, обнесенный высоченной стеной и окруженный рвом с крокопираньями, даже бронированный «Мерседес» не всем по средствам, но это вопрос уже экономический, а не экологический.
Стоит заметить, что желание спрятаться, защититься в мире развито неравномерно. В одной стране люди живут за полустеклянными легонькими дверьми, и вполне прилично живут, в другой железные монструозии скрывают скудость, а порой и нищету. Но — прикрытую нищету, прикрытую той самой сейфовой дверью.
Но что тело! А защита духа? Защита "Я" от «не-Я» — дело не менее необходимое, чем бронирование дверей наших хрущоб. Если в двери ломятся все-таки не ежедневно и даже не ко всем, то взломать "Я" норовит всяк кому не лень. А кому лень, обращается в конторы по рассылке рекламы. Тут не природы боишься, природа на "Я" не посягает, волку или леопарду тоже внутренний мир человека малоинтересен. Но вот свой же брат Хомо Сапиенс...
И ведь доспехи, даже максимиллиановские, от ментального нападения не уберегут, как и танковая броня, и подземелья ракетных войск стратегического назначения. Ментальный натиск бывает незаметным для атакуемого. «Вроде все, как всегда: то же небо, опять голубое, тот же лес, тот же воздух, и та же вода», только вместо "Я" внутри сидит «не-Я».
Защиту от ментальных атак человек обыкновенно ищет сам. Проще всего выпить: мозг, окутанный алкогольным ореолом, на какое-то время становится невменяемым, а, следовательно, и не поддающимся обработке. Но простое решение не самое лучшее, порой — и довольно часто — страж мозга поражается раньше, чем сам мозг, и тогда человек ментально разоружается, и в пьяном виде совершает совсем уж неразумные поступки, классический пример — поведение Кисы Воробьянинова в ресторане накануне мебельного аукциона.
Да и в собственной жизни у многих есть что вспомнить: то вдруг сгоряча (то есть вследствие приема горячительных напитков) начнешь на улице цитировать Конституцию представителям органов правопорядка, то возьмешь кредит на второй ноутбук, то просто решишь поплавать в речке, забыв, что плавать толком-то и не умеешь.
Другой вариант — возведение вокруг "Я" ментальных бастионов. От легоньких — рыбки аквариумные, марки почтовые, фотографирование по-казацки, до весьма внушительных, вроде шахмат или активной поэзии.
Иногда программа глючит, и бастионы получаются престранные, тут иллюстрацией послужит гоголевский Поприщин. Пытался противостоять унылости и беспросветности повседневности — и стал испанским королем!
А бывает и наоборот, повседневность слишком уж необыкновенна, и тогда с человеком происходит то, что с героем романа Лихэйна (Dennis Lehane, Shutter Island). В век кинематографа можно и не читать, а посмотреть одноименную экранизацию, в русском обличии — «Остров проклятых».
И вот тут-то возникает понимание, что привычка наша к чтению художественной литературы или просмотру кинофильмов и есть наиболее адекватный ментальный аналог ношения звериных шкур и возведения крепких стен. Мы занимаем сознание небывальщиной, тем самым не оставляя места для войск потенциального агрессора.
Вакцинируемся. Погруженный в мир Достоевского разум теряет восприимчивость к навязчивой рекламе политика, прокладок или жевательной резинки. Если бы чтением или просмотром кинофильмов люди компенсировали недостаток внешних раздражителей, то следовало бы ожидать, что в деревне читали бы много больше, нежели в городе, однако на деле, похоже, все наоборот. Люди читают в том случае, если внешние раздражители превышают пороговое (у каждого — свое) значение, сверх которого разум теряет способность защищать "Я". То есть людям тяжело, когда реальности слишком много, и они ищут отдохновения в грезах.
Но это цветочек.
Ягодку я оставлю на завтра.
К оглавлению
(обратно) (обратно)Голубятня-Онлайн
Голубятня: Шершень-коматоз Сергей Голубицкий
Опубликовано 03 ноября 2010 года
Думаю, не будет преувеличением сказать, что состояние с интернетом в столице нашей дорогой бывшей-советской-ныне-дикой-капиталистической Родины совершенно чудовищно. Прямо скажу: такого ужаса не видел нигде и никогда. Самое грустное — этот ужас все мы знаем в лицо и по имени. И никакого секрета из этого никто не делает. Причина аврального состояния в столице РФ с интернетом заключается в том обстоятельстве, что опсосы скупили всех основных провайдеров интернета! Так вот просто и без затей. Красно-белое яйцо купило Стрим и превратило его в отстой как по цене, так и по сервису, а Шершень поглотил Корбину, грохнув некогда лучшего московского провайдера широкополосного интернета.
Со Стримом давно уже было все понятно, поскольку даже негативное влияние МТС не могло остановить стремительно устаревающую технологию ADSL. Достаточно сказать, что сегодня технические ограничения на upload-канал смотрятся неприемлемым моветоном. Ну и МТС, конечно, добавил масла в огонь, упрямо поддерживая цены Стрима на совершенно неконкурентном уровне. Последний рубеж держала Корбина. Держала до октября, пока Шершень, наконец, не завалил этот отличный проект. На Корбине у меня было три акаунта, которые на протяжении четырех лет выдавали самый лучший и надежный интернет, какой только можно было вообразить: сначала 6, потом 8, потом 12 мегабит в секунду (повышения скорости шли, обратите внимание, при сохранении тарифа!) плюс невероятный аптайм на уровне 99 процентов (то есть канал не обваливался и не сбоил практически никогда).
В конце прошлого года Шершень сожрал Корбину, но видит бог — подавился. Иного и быть не могло: у оспоса нет ни опыта, ни умения, ни знания, а главное! — желания предоставлять и поддерживать услуги широкополосного интернета. Скажу больше, у любого опсоса может быть только один внутренний импульс и одна мотивация: скупить всех провайдеров интернета в окрестности и закрыть к чертовой матери исключительно ради одного — уничтожения Скайпа, могильщика всех опсосов планеты! Нельзя, понимаешь ли, жвалами лоббировать в Думе на предмет законодательного запрета IP-телефонии, а жалом в гузке развивать сеть широкополосного доступа к этой самой — будь она проклята — IP-телефонии.
Короче говоря, я не знаю и знать не хочу, в какие игры играют московские опсосы, поэтому не будем заниматься гаданием на кофейной гуще, а обратимся к фактам. Факты эти таковы, что пользоваться Корбиной уже почти как месяц стало невозможно. Выглядит это следующим образом: 23 октября неожиданным образом прекратилась подача сигнала на маршрутизаторы пользователей. Раз — и нету! Причем повсеместно в городе. Создалось впечатление, что Корбину под управлением Шершня поразил какой-то неведомый «рутерный вирус». Служба поддержки Шершня и сама, похоже, не на шутку испугалась. По крайней мере испуг и удивление (вместе с детской гипотезой вируса) исходили из уст самих операторов («мы не знаем, что происходит... по всей Москве... наверное, вирус или кибератака»).
Через сутки восстановили прямую связь по VPN, рутеры же продолжали лежать мертвым железом. Пользоваться VPN в том виде, как он представлен у Шершня можно пожелать только Обаме бин Ладену и прочим врагам родины:
В общем доступе 25 октября оказались десятки компьютеров пользователей Корбины-Шершня со всеми своими зашаренными папками: заходи — бери что хош! Думаете, нечего было брать (если кому надобно)? Ха-ха! Ошибаетесь: личная переписка, личные фотографии, личные текстовые документы, личные данные в таблицах Excel. Если бы я был Обамой бин Ладеном, я бы специально наслал мифически-стратегический «рутерный вирус» на Шершня, заставив переключиться на VPN в надежде на кривые ручки и кривую конфигурацию.
Спустя какое-то время, что-то в некогда безупречном, аккуратном и надежном хозяйстве Корбины залатали, потому что связь наладилась. Разумеется, ненадолго: ну нет ни способностей, ни возможностей управлять совершенно чуждым, непонятным и нелюбимым делом у Шершня, чего там!
Сегодня утром всё сдохло с таким подтекстом, что окончательно. Связь обрубилась опять и сразу: и в Южном Бутово, и на Волгоградском проспекте, и в Марьино (проверял только у друзей-родственников-знакомых — Корбина-Шершень лежит плашмя у каждого). Отрубились рутеры, отрубилась VPN, что не удивительно: сигнала по WAN нет никакого. Раньше в случае любого вопроса мы звонили по нормальному московскому номеру нашему нормальному провайдеру широкополосного интернета, провайдер поднимал трубку на третьем, в самом страшном случае — на пятом гудке телефона и уже через 5 минут вопрос снимался, проблема решалась. Собственно, также работают 90 процентов всех провайдеров широкополосного инернета, не страдающих ожирением от хапанья конкурентов ртом и жопой при отсутствии умения, опыта и квалификации.
Теперь для решения проблем с Корбиной приходится звонить в единую справочно-информационную систему Шершня. Если кто не знает, что это такое, объясню. Набираешь «через восьмерку» длинный номер и ждешь, пока голос девахи под кайфом ЛСД (отличительный признак: ничем не оправданная и не обусловленная эйфория, энтузиазм и экзальтированная радость) до одури гоняет тебя по лабиринту опций ("если гы, то нажмите 1, если фы, то нажмите 2, а если хы, то нажмите 9), пока не упираешься либо сразу в короткие гудки, либо в сакраментальное «оператор сможет ответить на ваш звонок не ранее, чем... через 26 минут». Ждешь, пока «оператор сможет ответить на ваш звонок не ранее, чем... через одну минуту» — ну вот он, долгожданный миг победы! А хрен тебе, дурилка картонная! Один длинный гудок тут же срывается на короткие.
Мы проделали этот финт ушами три раза. Все три раза ожидание длилось по получасу и заканчивалось одинаково: Шершень кидает трубку.
Ну а что же вы хотите-то от него?! Что он вам может сказать? Что не знает, что там опять сломалось? Что не может ничего исправить? Что в хозяйстве полнейший бардак, потому что нахватали всеми своими хапательными конечностями бизнесы, в которых не понимают ни бельмеса?
Самое же ужасное, что в Москве деваться совершенно некуда! Некуда уже бежать! Стрим-красно-белое яйцо висит в последнее время так же, как и Корбина-шершень (это помимо собственных фирменных примочек, типа постоянного засыпания канала каждый час, которые лечатся только перезагрузкой рутера), а больше ничего в спальных районах и нет. Кроме местечковых убожеств вроде некогда описанного мною ясеневского монстра. Одним словом — мрак! Добавьте сюда первое место Москвы в мире по уровню транспортных пробок и чудовищную экологию, и вы поймете, почему единственным желанием после всякого моего возвращения в этот страшный город, остается лишь одно: бежать без оглядки прочь из него как можно скорее!
К оглавлению
(обратно)Голубятня: Чертов тупичок Сергей Голубицкий
Опубликовано 06 ноября 2010 года
О том, что не все в порядке в доме электронно-чернильных читалок, я догадался задолго до появления на рынке симптоматичного Nook 2 от Barnes & Noble. Вернее, второе поколение «Нука» еще формально не вышло, однако днями было анонсировано вместе с указанием ТТХ и рекламными фотографиями. Напомню читателям: речь идет о новом поколении читалок от самого культового американского книготорговца и издателя, которому никак не удается пережить позор, нанесенный ему Amazon. Мало того, что сиэтловский выскочка заткнул по продажам за пояс компанию со столетней историей, так детище Джеффа Безоса еще и умудрилось стать законодателем в сфере электронных книг подобно Надкусану с его айпадом.
Итак, B&N подготовила к выбросу на рынок читалку с цветным сенсорным экраном. Главная особенность этой читалки, однако, не цвет, который обещали аж четыре года назад, а отказ от технологии жидких чернил e-Ink одноименной компании. Первое, что приходит в голову: e-Ink продемонстрировало неспособность самостоятельно развивать столь многообещающую технологию: не то, что цветным экраном не сумели разродиться за четыре года, но даже не пошли дальше Vizplex'a, который, может, и поражал воображение три года назад на фоне совершенно позорных и убогих характеристик экранов первого поколения, но едва ли не на следующий день после появления на рынке проявил себя как крепкий переходный вариант. От убожества серых, мутных и безконтрастных экранов в какой-нибудь Sony PRS-500, к чему-то более ли менее способному конкурировать с экранами LCD по части контрастности передачи черного, белого и серого цветов (единственно доступных технологии электронных чернил).
Увы, дальше Vizplex компании e-Ink так и не подвинулась. И, похоже, людям надоело ждать обещанного пятый год. По крайней мере Barnes & Noble явно плюнул и перешел на LCD (первый Nook был на традиционном экране e-Ink подобно амазоновскому Kindle и все остальным читалкам на рынке).
Как можно расценивать поступок B&N? Лично у меня сомнений нет — глупый и тупиковый ход. Иного, впрочем, ожидать от B&N не приходится: столетняя компания — и это давно очевидно — разучилась пробивать в кассу в XXI веке. Как «Нук 2» будет конкурировать с айпадом и планшетами на Андроиде я даже представить себе не могу. Готов поспорить, что провал будет оглушительным.
С другой стороны, и здесь мы подходим к основной теме сегодняшнего поста, отчаянный шаг B&N понять тоже можно: слишком уж анахронистично и убого смотрится технология жидких чернил, намертво застывшая в своем развитии.
В конце концов, дело ведь не в цветном экране! На фиг он кому сдался на читалке. Дело даже не в низкой контрастности и сером фоне, без которых тоже можно прожить, особенно когда читаешь под прямыми солнечными лучами. Дело в недостатке, который лишает пользование традиционными e-Ink гаджетами практического смысла. Этот недостаток, опять же, определяется инфантильностью технологии. Речь о стеклянных экранах! На уровне теоретических рассуждений потенциальных пользователей о достоинствах электронных читалок e-Ink стеклянный экран может показаться малозначительной, хоть и досадной мелочью. Зато для реальных владельцев электронных книжек стеклянный экран превращается в возмутительную и — главное! — совершенно неприемлемую в финансовом отношении гадость.
Скажем так: из пары дюжин моих знакомых, которые купили себе электронно-чернильные читалки различных производителей, стеклянный экран сломался у всех! А знаете, сколько стоит замена электронно-чернильного экрана? 5 тысяч рублей в Москве (около 170 долларов) и 1220 гривен в Киеве (около 150 долларов). И это в том случае, если треснувший экран не повредил материнскую плату. Мне вот не повезло по полной программе, и одну из двух читалок Pocketbook 360, находящихся на семейном балансе, пришлось отправить в мусорное ведро. О том, как я заезжал в Киеве в ремонтную мастерскую и пытался починить читалку прямо, что говорится, на родине производителя, вы можете посмотреть в видеоклипе, размещенном на моем sgolub.ru в разделе Пиджин-AV. Рекомендую настоятельно посмотреть, потому что вид треснутого экрана является самым выразительным свидетельством инфернальности этой технологии.
Если перевести видеоряд на слова, то окажется, что стеклянный экран в электронно-чернильных читалках лежит прямо на материнской плате (он к ней приклеен в четырех местах чем-то вроде липкой ленты). В результате в более, чем половине случаев расколовшийся экран наносит повреждения материнской плате, несовместимое с жизнью. Как в моем случае. Замена же экрана и мамки стоит в полтора раза больше, чем сама читалка.
Я долго думал: зачем было Покетбуку класть экран прямо на материнскую плату? Ну не мог мой любимый украинский разработчик дойти самостоятельно до подобной глупости! И в самом деле не мог: сообразил, что ведь стеклянный экран нельзя держать в подвешенном состоянии! Его непременно нужно на что-то плотно укладывать, иначе будет достаточно самого минимального давления на поверхность экрана, чтобы он тут же трескался в результате люфта и деформации. Может, нужно было что-то проложить между экраном и материнской платой и все же не класть напрямую? Очень бы хотелось послушать специалистов на этот счет!
Вобщем получается, что случайное давление на экран и — амба! Стекло раскалывается, а с высокой вероятностью выходит из строя и материнская плата, а значит — прощай 350 долларов (как минимум). А то, что стекло будет колоться, можете не сомневаться ни капельки. Не верите мне, почитайте у Алекса Экслера, как за один день он совершенно случайно (даже без ведома — в самолете) хряпнул сразу две читалки, оставив семью накануне отпуска без книжного довольствия.
Стекло в электронно-чернильных читалках, между прочим, трескается не только от прямого давления на плоскость экрана (слава богу, для его защиты в Pocketbook 360 предусмотрена замечательная крышка — УМОЛЯЮ ВАС, ВСЕГДА НАДЕВАЙТЕ ЕЕ НА ЭКРАН!), но и давления по горизонтальной плоскости, которое вызывает смещение экрана, ничем не защищенного в плоскости корпуса). Говорят, единственно защищенной в этом отношении является читалка GlobusBook — вон она, лежит красавица в ожидании интенсивного тестирования и рассказа (не за горами!). Но даже GlobusBook не спасет от растрескивания экрана в результате прямого на него давления.
Самое печальное во всей этой истории: абсолютная невозможность отказаться полностью от электронно-чернильных читалок! Потому что есть два обстоятельства, делающих их незаменимыми: во-первых, ничего больше не читается под прямыми солнечными лучами, во-вторых, продолжительность работы без подзаряда у этих гаджетов вне всякой конкуренции!
Да, прекрасен четвертый айфон и прекрасен айпад. По возможности читаю именно на надкусановом девайсе, тем более, что качество программ для чтения на IOS просто умопомрачительное. Но стоит отправиться на воздух или в путешествие, как без электронно-чернильных читалок жизнь не мила.
Из всего сказанного делаем вывод: поскольку надежды на переход от стеклянной технологии экранов компанией e-Ink нет никакой, остается одно: БЕРЕЧЬ СВОИ ЧИТАЛКИ КАК ЗЕНИЦУ ОКА! Помните: это предельно хрупкий и предельно ненадежный гаджет, требующий ювелирной нежности в обращении. И стоит дорого ☺
К оглавлению
(обратно) (обратно)Ноутбуки
Тест ноутбука DELL Latitude E6410 Евгений Крестников
Опубликовано 02 ноября 2010 года
У российских покупателей сложился определённый образ продуктов компании DELL, который можно выразить расхожей фразой: «дёшево и сердито». В последние годы производитель пытается выйти за рамки этого амплуа и продвигает свои устройства не только за счет низкой стоимости (впрочем, в смысле соотношения цена/качество с устройствами DELL тягаться сложно). Бизнес-ноутбук Latitude E6410 относится к таким инновационным продуктам. При розничной цене 45000 — 60000 рублей (в зависимости от комплектации) дешевым его назвать сложно. С другой стороны — в смысле качества исполнения устройство легко может поспорить с бизнес-моделями более дорогих брендов.
Традиционно для подобных машин, конструкторы DELL сделали упор на строгий дизайн, качество материалов и надежность конструкции. При этом DELL Latitude E6410 обладает и довольно приличной вычислительной мощностью, но любителям игр покупать его не стоит — ноутбук предназначен в основном для делового применения и неуловимо напоминает знаменитые IBM ThinkPad T-серии. Если не конструкторскими решениями, то общим подходом: надёжность — первое что приходит в голову при взгляде на эту машину.
Технические характеристики
DELL Latitude E6410 основан на мобильной платформе Intel Calpella (Mobile Intel® QM57 Express Chipset) и оснащается процессорами Intel® CoreTM i7-620M (2.66GHz, 4M cache), Intel® CoreTM i5-540M (2.53GHz, 3M cache) или Intel® CoreTM i5-520M (2.4GHz, 3M cache), поддерживающими технологию Turbo Boost.
Стоит заметить, что процессоры Core i5 и i7 — это последнее, самое мощное поколение процессоров Intel. В них расположено четыря ядра и, к тому же, впервые в мобильных процессорах, которые являются сердцем E6410, применена технология HyperThreading. Таким образом, Windows регистрирует целых восемь виртуальных ядер. Это, несомненно, сильно поднимает общую производительность машины.
Силу нескольких ядер не стоит недооценивать — именно благодаря ним офисные приложения работают гладко и запускаются практически мгновенно. Вы никогда не задумывались, сколько времени теряется, пока медленный компьютер запускает тот же Excel? Тут ждать не придётся.
В ноутбук можно установить до 8 Гб оперативной памяти (два слота DDR3 SDRAM 1066 МГц или 1333 МГц, поддерживаются DIMM на 1 Гб, 2 Гб или 4 Гб). Графическая подсистема включает в себя интегрированный (Intel® HD Graphics) адаптер. Дисплей с диагональю 14,1", антибликовым покрытием и светодиодной посветкой поддерживает максимальное разрешение WXGA+ 1440x900 пикселей. В Latitude E6410 устанавливают SATA-винчестер ёмкостью до 500 Гб (есть варианты, поддерживающие шифрование) или твердотельный накопитель, ёмкостью до 256 Гб, а также привод DVD.
Коммуникационные возможности устройства явно рассчитаны на путешествующих бизнесменов. Здесь есть адаптер Ethernet 10/100/1000, интегрированный модем 56K v924 (опционально), а также адаптер Dell WirelessTM 802.11a/b/g/n и WiMax 802.16e. Опционально может быть установлена мини-карта Dell Wireless 5620 (EVDO+HSPA+AGPS) или Dell Wireless 5540 (HSPA+AGPS) для работы в сетях сотовой связи и навигации.
Набор портов стандартный для этого типа устройств: RJ-45 для подключения к проводной сети и RJ-11 — для телефонной (если установлен модем), четыре порта USB 2.0 и один комбинированный — USB/eSATA, стандартный аудиовход и аудиовыход, а также разъем IEEE 1394, картридер 6-в-1, слот для ExpressCard 54 мм или коннектор для докстанции (Type I/II PCMCIA), разъем VGA и DisplayPort. Если говорить о мультимедийных возможностях, помимо стандартного аудиовыхода здесь есть встроенные стереодинамики, микрофон и интегрированная HD-вебкамера с разрешением три мегапикселя.
Ноутбук оснащается 4-, 6-, 9- или 12-элементным литий-ионным аккумулятором, притом пользователю доступна 9-ячеечная модель с увеличенным сроком службы и трехлетней гарантией. Габариты устройства составляют 335 мм x 238,3 мм x 25,4 — 31,2 мм, а его масса — 1,9 кг.
Дизайн и эргономика
Корпус ноутбука изготовлен по технологии Dell Tri-Metal, а поворотные шарниры усилены. Никаких зазоров и люфтов нам обнаружить не удалось — машина сделана очень прочной, что неудивительно — бизнесмены ценят главным образом надежность конструкции. Стоит отметить эргономичную клавиатуру ноутбука с хорошей подсветкой и отзывчивый тачпад. В некоторых моделях заказчики могут выбирать цветовые решения, но любителям оригинального дизайна ноутбук не понравится — машина выполнена в строгом деловом стиле. Впрочем, целевой аудитории Latitude E6410 особые дизайнерские изыски и не нужны.
Датчик свободного падения (расположен на материнской плате) очень быстрореагирует на резкое изменение положения устройства в пространстве — головки винчестера паркуются мгновенно. Кроме того накопители защищены амортизатором Dell StrikeZone(tm) (его мы по понятным причинам не тестировали), а в некоторые модели устанавливают твердотельный накопитель.
В целом конструкция ноутбука производит просто отличное впечатление — его корпус сделан чрезвычайно добротно, а устройства ввода работают просто безупречно.
Производительность, нагрев/шум, время автономной работы
Ноутбук обеспечивает отличную производительность в офисных приложениях, но, конечно, в современные трёхмерные игры на нём не поиграешь. Оно и понятно — машина ориентирована на бизнес-аудиторию. Но при желании можно заказать эту модель с дискретным адаптером NVIDIA.
Программное обеспечение
Ноутбук DELL Latitude E6410 поставляется с предустановвленной Windows 7: Professional. Кроме того, есть варианты поставки Windows® 7 Professional с возможностью «даунгрейда» до Windows® XP Professional (во многих компаниях на новую версию Windows еще не перешли), а также вариант с 32-разрядной Windows Vista® Ultimate.
Выводы
Давать оценку устройства стоит исходя из его назначения. На наш взгляд, Latitude E6410 обладает главными для деловых машин качествами: высокой надежностью, строгим дизайном и неплохими коммуникационными возможностями. А если прибавить сюда довольно высокие вычислительные мощности, хорошую эргономику и длительное время автономной работы — результаты впечатляют. Цена для машин подобного класса также не выглядит запредельной. Latitude E6410 не заменит десктоп, но как дорожный ноутбук эта модель оптимальна.
К оглавлению
(обратно)Тест ноутбука ASUS U53Jc Ника Парамонова
Опубликовано 03 ноября 2010 года
Несмотря на приличную диагональ экрана, производитель относит этот ноутбук к категории мультимедийных. Он подойдет тем, кому нужна одна машина для дома и для поездок, а также хочется при этом играть в игры, смотреть фильмы в хорошем разрешении и выполнять относительно ресурсоёмкие задачи.
Первое, на что обращаешь внимание при взгляде на ноутбуки ASUS серии U Bamboo — отделка из натурального бамбука. Попробуем разобраться, что предлагает нам производитель, кроме стильного дизайна.
Упаковка и комплектация
На сайте ASUS сказано, что в качестве отделочного материала бамбук был выбран не только за внешний вид — это быстро возобновляющийся ресурс. Мотивы борьбы за чистоту окружающей среды прослеживаются и в упаковке устройства. Черная коробка также сделана из природных материалов и подлежит вторичной переработке.
Внешний вид и эргономика
Выглядит ноутбук интересно — крышка и верхняя панель отделаны натуральным бамбуком темно-коричневого цвета. Смотрится это неплохо, а кроме того такая отделка очень практична — на ней не остается отпечатков пальцев, как на глянцевом пластике.
Алюминиевая верхняя панель корпуса выглядит стильно — контраст между теплой отделкой и холодным металлом производит хорошее впечатление. Корпус сделан качественно — люфтов и зазоров нам обнаружить не удалось.
Клавиатура с раздельными клавишами довольно эргономична, но в машинах с такой диагональю экрана редко бывает иначе — здесь инженерам не нужно экономить каждый миллиметр. Тачпад (его цвет гармонирует с бамбуковой отделкой) весьма отзывчивый, а все разъемы и порты расположены удобно. На первый взгляд, машина удалась — конструкторам ASUS удалось сделать её не только красивой, но и удобной в работе.
Технические характеристики
В протестированном нами ASUS U53Jc установлен процессор Intel® Core™ i7-620M с тактовой частотой 2,66 ГГц и поддержкой технологии Turbo Boost (частота процессора может увеличиваться до 3,33 ГГц). В других конфигурациях могут быть процессоры Intel® Core™ i5 540M/520M/450M/430M с поддержкой Turbo Boost, а также Intel® Core™ i3 370M или Intel® Pentium® Dual Core P6000. Материнская плата устройства основана на наборе микросхем Mobile Intel® HM55 Express Chipset и поддерживает возможность установки до 4 Гб оперативной памяти DDR3 1066 MHz SDRAM в два слота SODIMM.
Графическая подсистема гибридная, она состоит из интегрированного ядра Intel GMA HD и дискретного адаптера NVIDIA® GeForce® G 310M, 1GB DDR3 VRAM и поддерживает технологию NVIDIA Optimus. Дисплей ноутбука с диагональю 15.6", разрешением 1366x768 (соотношение сторон 16:9) и LED-подсветкой поддерживает технологию ColorShine и позволяет воспроизводить видеоконтент в формате HD.
В ноутбук устанавливают накопитель SATA на 2,5" (от 320 Гб до 640 Гб, в зависимости от конфигурации устройства), а также привод Blu-Ray DVD Combo или DVD Super Multi.
Для доступа к сети используется встроенный адаптер Ethernet (10/100/1000) или WiFi (802.11 b/g/n или 802.11b/g в зависимости от конфигурации). Набор коммуникационных портов стандартный: вход микрофона (3,5 мм) и аудиовыход S/PDIF, разъем VGA port/Mini D-sub (15-pin) два порта USB 2.0 и один — RJ45 для подключения к сети Ethernet. Кроме того, в ноутбуке реализован современный интерфейс USB 3.0 для подключения новейших высокоскоростных устройств, но поддерживается и обратная совместимость со старым стандартом. Модуль Bluetooth, к сожалению, отсутствует — но это явно особенность конфигурации нашего тестового экземпляра.
Кроме того здесь есть картридер 5-в-1 (SD,MMC,MS-Pro,xD), встроенная вебкамера на 2 МП, а также микрофон и стереодинамики. Звуковая подсистема ноутбука поддерживает технологию пространственного звучания SRS Premium Surround Sound.
В ASUS U53Jc в зависимости от комплектации могут быть установлены шестиячеечные (4400 мАч, 47 Вт.ч) или восьмиячеечные (4400/5600 мАч, 63/84 Вт.ч) аккумуляторы. Габариты корпуса составляют 386 x 257 x 316~330,9 мм, а масса ноутбука с шестиячеечной батареей — 2,76 кг.
Производительность
Производительности ASUS U53Jc хватает для повседневных задач пользователя: работа с офисными документами, вебсерфинг, воспроизведение музыки и просмотра видеоконтента высокого разрешения. Машина позволяет решать и некоторые ресурсоемкие задачи, вроде редактирования больших графических файлов или конвертации видео, однако следует учитывать, что это мультимедийный ноутбук, а не мощная рабочая станция. То же касается игр — на игровую машину U53Jc не тянет (хотя современные игры на ней запускаются, пусть и не с максимальными настройками) и заядлым геймерам ее возможностей будет недостаточно.
Результаты некоторых тестов приведены ниже:
Время автономной работы, нагрев и шум
По результатам теста Battery Eater, время автономной работы ноутбука при высокой нагрузке составляет 1 час 58 минут. Это очень неплохой результат для машины с такой вычислительной мощностью, хотя и не рекордный. Ноутбук не греется, а вентиляторы в режиме решения стандартных задач работают практически бесшумно.
Программное обеспечение
Машина поставляется с предустановленной Windows 7 Домашней расширенной, Профессиональной или Максимальной версии. Кроме того в комплект поставки входят сторонние программы: Trend Micro Internet Security 2010 и Office 2007 (триальные версии на 60дней), а также Adobe Acrobat Reader 9.0 и Power2Go. Также здесь установлено большое количество утилит ASUS (по большей части бесполезных). Перечислять их все не будем (тем более, что основное предназначение этих инструментов — предоставить красивый интерфейс для стандартных возможностей Windows 7). Например, программа Power4Gear позволяет создать и настроить собственные планы электропитания с учётом наиболее часто используемых режимов работы: высокая производительность, экономия батареи, офисная работа и так далее. Обновить весь этот зоопарк можно с помощью программы Asus Live Update.
Выводы
Сложнее всего определиться, к какому типу ноутбуков относится ASUS U53Jc. Производитель классифицирует его как мультимедийную машину — с такими размерами и массой почти 3 кг таскать устройство с собой неудобно. Да и время работы около двух часов маловато для мобильного компьютера. Мы бы отнесли его к некой промежуточной категории — с одной стороны, довольно высокая вычислительная мощность и большая диагональ экрана позволяют использовать ноутбук в качестве основной машины. С другой — его вполне можно взять с собой, скажем, в командировку. ASUS U53Jc идеально подойдет тем, кто ведет кочевую жизнь и хочет иметь одну машину на все случаи.
К оглавлению
(обратно) (обратно)
Комментарии к книге «Цифровой журнал «Компьютерра» 2010 № 41», Журнал «Компьютерра»
Всего 0 комментариев