355 500 произведений, 25 200 авторов.

Электронная библиотека книг » Компьютерра Журнал » Журнал «Компьютерра» №31 от 30 августа 2005 года » Текст книги (страница 1)
Журнал «Компьютерра» №31 от 30 августа 2005 года
  • Текст добавлен: 10 сентября 2016, 01:27

Текст книги "Журнал «Компьютерра» №31 от 30 августа 2005 года"


Автор книги: Компьютерра Журнал



сообщить о нарушении

Текущая страница: 1 (всего у книги 10 страниц) [доступный отрывок для чтения: 4 страниц]

Журнал 603 Компьютерра
Журнал «Компьютерра» №31 от 30 августа 2005 года
(Компьютерра – 603)

НОВОСТИ: «Геном»: перезагрузка

На удивление спокойно, без победных фанфар и вселенского шума прошло такое, несомненно, грандиозное событие, как завершение проекта «Геном человека» (черновой релиз состоялся в 2001 году, о полной расшифровке ДНК объявлено в 2003-м). Для сдержанности, конечно, есть причины: как ни гляди, работа только началась. С практической точки зрения, выяснение генетической подоплеки тех или иных болезней требует сопоставления многих индивидуальных вариантов структуры генома. С точки же зрения науки, созерцание кода само по себе никак не отвечает на вопросы о механизмах генетического контроля. Мало прочитать, нужно понять.

Американский National Human Genome Research Institute (NHGRI), головная организация «Генома человека», теперь открыла проект ENCODE (ENCyclopedia Of DNA Elements). Его задача – не распыляясь, «рассмотреть под лупой» отдельные зоны генома (44 участка, составляющие в совокупности около 1% его длины) для детального мониторинга функций, проведения эволюционных сопоставлений и выявления индивидуальных вариаций.

«Нам открывается новый мир, гораздо более сложный, чем сам мир генома», – говорит об изучении эпигенетических (управляющих работой генетического аппарата) связей канадский исследователь Моше Сциф (Moshe Szyf). Бинг Рен (Bing Ren) из Калифорнийского университета и его коллеги в качестве первоочередной цели рассматривают картирование промоторов – регуляторных последователей ДНК, обеспечивающих включение или выключение генов. Разительные порой отличия между типами клеток, несущими, тем не менее, один и тот же геном, а также функциональные переключения клеток непосредственно зависят от промоторов. Использовав «ДНК-чипы» от NimbleGen Systems и разработанные в университете изощренные компьютерные алгоритмы, исследователи уже идентифицировали местоположение и структуру 10 тысяч регуляторных участков в клетках соединительной ткани (фибробластах) человека; 6 тысяч из них локализованы впервые. Сообщается о том, что некоторые гены могут контролироваться сразу несколькими промоторами, а также о выявлении регуляторов в зонах, в которых их видеть не ожидали.

На разгадку процессов регуляции нацелен и проект «Эпигеном» (Human Epigenome Project). Вопреки всеобъемлещему названию, в фокусе внимания одна-единственная проблема – метилирование ДНК (этой модификации частично подвергается один из нуклеотидов, цитозин). Зачем это нужно у бактерий, разобрались, а вот смысл метилирования у млекопитающих остается недостаточно проясненным. Теперь, видимо, ненадолго.

Амбициозная цель, которую ставят перед собой ученые, – выход на возможность определения последовательности нуклеотидов ДНК (секвенирования) у отдельных людей. Ведь ДНК у всех разная, и то, что мы называем расшифрованным геномом, – лишь случайным образом отобранные для исследования образцы, заведомо отличающиеся от ДНК других людей. Подобный прорыв открыл бы путь тому, что уже получило название «персонализированной медицины» и является долгожданным воплощением врачебного идеала «лечить не болезнь, а больного», – диагностика и лечение могли бы полностью учитывать генетическую индивидуальность.

Пока что прямая ДНК-диагностика ограничивается несколькими сотнями тестов, касающихся болезней с совершенно очевидной генетической предрасположенностью и требует испытания для идентификации каждого патологического гена. Идея «личностной фармакологии» официально получила «добро» от Управления по контролю за пищевыми продуктами и лекарственными средствами США (FDA), однако пока что даже в самой обстоятельной базе данных по фармакогенетике PharmGkb (www.pharmgkb.org) генетические связи приводятся только для 400 из 4000 аннотированных лекарств. А вот проведя широкие сопоставления полных записей структуры ДНК и имея на руках генетический профиль конкретного человека, можно было бы сразу оценить все его врожденные предрасположенности к тем или иным болезням и точно подстроить медикаментозную терапию под генетические особенности.

Для очередной атаки на код наследственности готовится соответствующее обновление методического инструментария. Способов секвенирования придумано немало, но основной «рабочей лошадкой» был и остается метод Сэнджера. Сначала двуспиральную ДНК разделяют на нити, затем на матрице однонитевой ДНК с помощью фермента ДНК-полимеразы начинают вновь воссоздавать вторую цепь. При этом некоторым специальным способом подается команда прекратить синтез, как только он дойдет до определенного нуклеотида (аденина, скажем, или тимина). Длина недостроенных фрагментов (указывающая, в какой позиции прервана реакция и, следовательно, находится соответствующий нуклеотид) определяется с помощью электрофореза. Эта методика достаточно трудоемка, но новые нанотехнологические подходы обещают резко ускорить процесс и перевести прочтение ДНК индивидуума из разряда научных подвигов в ранг бытовой повседневности.

Марсель Маргулис (Marcel Margulies) и его коллеги из 454 Life Sciences Corporation предложили перенести реакцию из раствора на поверхность микроскопических шариков, к которым и прикрепляется анализируемая ДНК. Разработка, выполненная фирмой, позволяет получать результат не исследуя продукты полимеразной реакции, а непосредственно наблюдая за ее ходом. Шарики попеременно орошаются растворами, содержащими один из четырех нуклеотидов. Когда подается нуклеотид, нужный для продолжения цепи, это видно по свечению, возникающему от превращений продуктов реакции под влиянием люциферазы (фермент из светлячков). Руководит процессом высоко оцененное специалистами программное обеспечение под Linux. В качестве рекламного шага исследователи объявили о предстоящей быстрой расшифровке личной ДНК Джеймса Уотсона, соавтора открытия двуспиральной структуры ДНК. Аналогичный подход, использующий четыре красителя (по числу нуклеотидов) и флуоресцентный микроскоп, предложили Джей Шендур (Jay Shendure) и ее коллеги из Гарвардского медицинского колледжа. Потенциально новые технологии на два порядка производительнее и гораздо дешевле метода Сэнджера.

С октября прошлого года инновации в области секвенирования финансирует и упомянутый выше институт NHGRI. Гранты серии «$100000 за геном» подразумевают выведение в обозримые сроки и с опорой на существующие методики полного секвенирования ДНК на обозначенный ценовой рубеж (сейчас это стоит 10 млн. долларов). Гранты же линейки «$1000 за геном» выдаются в предвкушении радикального прорыва (в августе объявлено об увеличении их количества – возможно, под влиянием успехов коллег-конкурентов). В качестве инструментов для совершения революции в секвенировании предлагаются самые разные технологии с использованием нанопор, синтетических нуклеотидных аналогов, измерения электрических свойств нанообъектов и др. Кстати, гранты далеко не столь скромны, как наименования рубрик, – от половины до нескольких миллионов долларов.

Ждет ли нас в близком будущем общедоступное секвенирование по цене средненького ноутбука – бог весть. Однако ученые мужи излучают оптимизм.


Terralab.ru: Overdrive для монитора

О технологии с громким названием Overdrive я впервые услышал во время весенней поездки на Computex 2005 – о ней несколько раз вскользь упоминали сотрудники BenQ, показывавшие нам завод и исследовательскую лабораторию фирмы. А чуть позднее, при посещении завода третьего по величине в мире производителя LCD-панелей AU Optronics (AUO), меня удивило изобилие панелей, сделанных на основе, казалось бы, совершенно непопулярной технологии MVA. Однако «экскурсоводы» в обоих случаях предпочитали говорить не о технологических, а о финансовых достижениях своих компаний, ограничиваясь демонстрацией «железок» и лабораторий, так что Overdrive на время забылась.

Вспомнилась же мне эта история много позднее, когда мой коллега рассказал о появлении на рынке нового поколения мониторов, в которых принципиально решена проблема слишком большого времени отклика матрицы. Заинтересовавшись, я отправился на поиски информации об использующейся в этих мониторах технологии.


Кому это нужно?

Каждый (суб)пиксел в современной активной LCD-панели представляет собой довольно сложную конструкцию из транзистора, конденсатора и резистора, управляющих напряжением на электродах, между которыми зажата крошечная капля жидких кристаллов. В зависимости от этого напряжения изменяется ориентация кристаллов в этой капле, а в зависимости от ориентации субпиксел определенным образом поворачивает плоскость поляризации проходящего через него света. Поскольку вся конструкция, в свою очередь, зажата между двумя поляроидами, первый из которых поляризует свет в одном направлении перед прохождением его через массив субпикселов, а второй – отсекает часть света в зависимости от направления поляризации, то панель пропускает в данной точке то или иное количество света. Сетка управляющих электродов и «встроенные» в каждый субпиксел транзисторы позволяют электронной схеме, управляющей работой панели, подавать необходимый уровень напряжения на любой из субпикселов, образующих матрицу, а встроенные в субпикселы конденсаторы позволяют это напряжение на непродолжительное время «запоминать» – до следующего цикла обновления изображения на экране. Остается только равномерно осветить LCD-панель специальным источником (поток света от которого матрица будет «модулировать») – и жидкокристаллический монитор готов (рис. 1).


***

Грубая, упрощенная схема устройства субпиксела TFT-матрицы. При снятии напряжения с нужного «горизонтального» электрода в сетке, «открываются» транзисторы, соединяющие конденсаторы субпикселов с «вертикальными» электродами, и через эти электроды на всех субпикселах данного «ряда» устанавливается требуемый уровень напряжения. Эта процедура изменяет ориентацию жидких кристаллов в субпикселах, изменяет угол вращения поляризации света этими кристаллами и регулирует количество света, проходящего через субпиксел. Цветные светофильтры позволяют создавать цветные TFT-матрицы, набирая их из субпикселов разных цветов; пленка из материала с высоким коэффициентом преломления значительно увеличивает углы обзора.

Как видим, технология получается очень сложной и дорогой в производстве: неудивительно, что даже очень сложные по электронике и внутреннему устройству качественные CRT-мониторы до недавних пор были гораздо дешевле. Но даже если отойти от «производственных» проблем, то нетрудно заметить, что в описанной конструкции наличествует «механический» элемент – поворачивающиеся кристаллы; и время изменения цвета точки на экране определяется отнюдь не возможностями электронной схемы, управляющей напряжениями на субпикселах, а временем, которое требуется кристаллам, чтобы занять положенную ориентацию. Это время варьируется в зависимости от подхода к поляризации света (типа матрицы) и от «рецептуры» жидких кристаллов; в современных матрицах оно составляет от 4 до 60 мс и существенно зависит от того, между какими состояниями переключается субпиксел. Для отображения этой зависимости давайте зададимся каким-нибудь одним начальным уровнем яркости (например, нулем) и посмотрим «двухмерный» график времени переключения субпиксела в зависимости от того, какую «результирующую» яркость нам нужно получить от матрицы (рис. 2, 3).

Серый график – время отклика, соответствующее типовой современной TFT-панели. Белый график – время отклика AUO M170EG01, одной из самых быстрых матриц на основе технологии TN+Film. Хорошо видно, что время отклика для первой панели постепенно растет в зависимости от величины перехода и составляет в среднем от 30 до 45 мс, а время отклика более быстрой, восьмимиллисекундной панели примерно постоянно (22-25 мс) во всем диапазоне переходов. И только для переходов «черный-белый» (от полностью непрозрачного к полностью прозрачному состоянию) оно резко падает – до 18 (в первом случае) и 8 (во втором) миллисекунд. Именно это время, согласно стандарту ISO, и указывается в качестве времени реакции матрицы. То есть, как нетрудно посчитать, реальное среднее время отклика матрицы примерно в 2,5-3 раза больше, чем то, которое указывается производителем!

Человеческий глаз довольно инерционен (киношных 24 кадров в секунду достаточно, чтобы создать иллюзию плавного движения), однако инерционность эта чисто психологическая – на самом деле человек замечательно улавливает «мелкие детали», которые ему показывают с куда большей частотой. К примеру, подавляющее большинство людей отчетливо видят мерцание CRT-монитора с частотой обновления кадров 60 Гц – это происходит потому, что в каждый момент времени светится только небольшая часть экрана, а остальное пространство остается темным. И точно так же для LCD-панелей: глаз не улавливает промежуточного серого цвета при, скажем, изменении цвета всего экрана, однако при смене кадров хорошо видит не успевшее погаснуть старое изображение одновременно с новым. Например, при скроллировании черного текста на белом фоне на большинстве мониторов ясно видна серая «тень», слегка отстающая от текста (замыливание, ghosting). А в фильмах и динамичных трехмерных играх инерционность, хоть и не столь явно, может создавать неприятные для глаза артефакты. И чтобы избавиться от этих эффектов, необходимо, чтобы время отклика матрицы позволяло полностью сменять на экране хотя бы 50-60, а лучше – 70-75 изображений. То есть довести время реакции до 17-20, а то и 13-14 мс во всем диапазоне яркости.


Как «разогнать» матрицу

Итак, задача формулируется следующим образом: сделать матрицу со средним, а не «ISO’шным» временем отклика порядка 10-20 мс. И оказывается, совершенствовать технологию TN+Film, добиваясь необходимых при классическом подходе 4-6 мс времени отклика по стандарту ISO вовсе не обязательно: усовершенствовав схему управления LCD-панелью, этого легко добиться для уже существующих, причем куда более медленных матриц! Достаточно сместить «рабочую точку» переключения всех пикселов в «быструю» область. Ведь если поворот жидких кристаллов происходит не мгновенно, то что нам мешает начать его быстро, а затем остановить «на полпути»?

Снова обратимся к графикам. Для начала взглянем, как в действительности происходит переключение субпиксела от полностью непрозрачного к полупрозрачным вариантам для нашей «усредненной матрицы» (рис. 4). А теперь представим, что мы используем LCD-панель, изображение на которой обновляется 60 раз в секунду (время обновления кадра 16,7 мс) и попробуем ее слегка «разогнать», приблизив время реакции матрицы к периоду обновления изображения. Введем некий гипотетический промежуточный цвет, для которого переключение матрицы будет довольно быстрым. Однако еще до того, как матрица успеет к этому цвету переключиться, остановим процесс на нужном нам промежуточном значении, изменив соответствующим образом напряжение на субпикселе во время следующего обновления экрана (отмечено жирной вертикальной чертой). Если все будет проделано правильно, получится следующее (рис. 5).

Не правда ли, впечатляет? Нанеся график времени отклика «усовершенствованной» матрицы на наш график (оранжевым цветом), мы увидим такую картину (рис. 6)[Маленький горбик в конце графика появился из-за того, что для достаточно большого изменения угла поворота кристаллов последние повернуться на этот угол за период обновления экрана все равно не могут].

Вот тебе и «медленная» матрица! Оказывается, что «глупая» прямолинейная схема управления, напрямую пересчитывающая желаемый уровень яркости субпиксела в соответствующее напряжение, не позволяет панели показать все, на что она способна. И если слегка доработать схему (чтобы она учитывала не только желаемый, но и уже существующий уровень яркости), то на нынешних матрицах нетрудно будет получить 60 и даже 100 Гц кадровой развертки. А это означает полное решение проблемы недостаточного времени отклика LCD-матриц.

Впрочем, я рассказал далеко не обо всех прелестях Overdrive. Дело в том, что модернизировать электронику собственно панели для использования этой технологии совершенно необязательно! Достаточно того, чтобы Overdrive поддерживала видеокарта! Ведь, в сущности, неважно, электроника ли панели «учтет» предыдущее значение цвета пиксела и выставит «быстрый» уровень сигнала (соответствующий некоторому псевдоцвету) на один период обновления экрана, или это за нее сделает графический процессор видеокарты, выдавая на LCD не «правильную» картинку, а скорректированную с учетом инерционности матрицы. Более того: LCD Overdrive средствами видеокарты – самая что ни на есть объективная реальность, поскольку в том или ином варианте поддерживается почти всеми производителями видеокарт. У ATI эта «фича» называется LRDC и входит в состав технологии LCD Enhancement Engine (LCD-EE); у nVidia – LCD overdrive и входит в технологию PureVideo, и для их активации достаточно лишь включить соответствующую технологию в настройках драйвера. О том, какие версии драйверов подходят для этой цели и где в них спрятаны соответствующие настройки, мы поговорим чуть ниже, а пока задумаемся над следующим вопросом.


Неужели все так хорошо?

Конечно же, нет! С технологией Overdrive связаны по меньшей мере две серьезные проблемы, каждая из которых может свести практический эффект от ее использования к нулю.

Во-первых, для работы Overdrive компьютеру требуется постоянно «держать в памяти» сразу два изображения: одно, которое панель в данный момент должна показывать, и второе, которое панель показывает в действительности. А ведь это – несколько мегабайт быстродействующей видеопамяти! Кроме того, требуется иметь очень точно составленные таблички (64x64 для 18-битных и 256x256 для 24-битных матриц) «псевдоцветов», которые нужно использовать при данном сочетании текущего и желаемого состояния субпиксела, и «результирующих цветов», показывающих, какой цвет будет при использовании этого псевдоцвета достигнут к моменту следующего обновления изображения матрицы, – вот и еще 128 Кбайт памяти и обслуживающей ее логики. Конечно, для современной видеокарты реализовать подобную систему не составляет большого труда (прошли те времена, когда все упиралось в медленную и дорогую видеопамять), однако не вполне понятно, откуда видеокарта возьмет эту 131 тысячу чисел, свойственную именно этой конкретной матрице. А LCD-монитор, напротив, прекрасно «осведомлен» о своих скоростных характеристиках (пользуясь специальным оборудованием, их нетрудно измерить), но для него динамическая коррекция картинки с учетом ее предыдущего состояния – принципиально новая и сложная в реализации задача, требующая специального DSP-процессора.


***

Во-вторых, средств объективного контроля действительного состояния LCD-панели попросту не существует. А значит, использующая Overdrive система может лишь приближенно считать, что если 16,7 мс назад на такой-то субпиксел было подано такое-то напряжение, то сейчас он должен находиться в таком-то состоянии. В обычных системах небольшие ошибки и разброс параметров пикселов приводят к небольшим погрешностям в установившемся цвете панели; в Overdrive-системах подобные ошибки могут накапливаться и приводить не только к большим погрешностям в цветопередаче, но, в принципе, и к искажению получающихся картинок. С этим можно бороться, внося специальные ошибки в таблицы пересчета, однако полностью проблему это все равно не решает.

Таким образом, «Overdrive первого поколения» не совсем тот Overdrive, который я описал в предыдущем разделе, а лишь грубое его подобие. Вместо того чтобы подавать напряжение, которое за заданное время (соответствующее времени обновления экрана) переведет субпиксел в желаемое состояние, на него подается напряжение, переводящее его в некое промежуточное состояние, из которого потом можно довольно быстро переключиться к любому желаемому уровню цвета. К примеру, чтобы перейти из состояния "0" в состояние «200», можно вначале переключиться к «255», а затем скорректировать получившийся результат, переключившись на запрошенные «200». Если матрица очень быстро переключается между 0 и 255 и быстро же переключается между, скажем, состояниями из диапазона 190…254, то независимо от того, насколько точный результат нам дает первое переключение (к 255), мы получим требуемые 200 единиц прозрачности субпиксела существенно быстрее, чем если бы сразу переключались от 0 к 200. Реализовать такой Overdrive гораздо проще, он абсолютно устойчив к погрешностям и вдобавок не требует точной подстройки к матрице (достаточно грубых оценок ее производительности). Но зато теперь вылезла другая проблема – вместо плавного изменения цвета от темного к светлому у нас возникает характерная небольшая быстро гаснущая «вспышка», которую глаз может уловить. Увы, до разработки более сложных и совершенных систем управления панелью технологии придется мириться с этим недостатком.


Overdrive на практике

Производители традиционно молчат об устанавливаемых в свою продукцию матрицах, однако определить, поддерживает ли монитор Overdrive, можно, посмотрев заявленное время отклика в спецификациях. Если производитель указывает его без каких-либо приписок и замечаний либо честно пишет, что время измерено по методике ISO, то, скорее всего, это монитор «старой закалки», работающий с матрицей безо всяких ухищрений. Если же в спецификациях упоминается время переключения «grey-to-grey» (сокращенно GTG, gtg или g2g), то монитор почти наверняка поддерживает Overdrive. Дело в том, что сама эта характеристика (время переходов от серого цвета к серому) была введена в качестве попытки дать более объективную оценку инерционности ЖК-монитора, замеряя время переключения пикселов не только между быстрым «черным-белым» (BTW), но и между самым медленным «серым-серым» переходом. К примеру, для приведенных в начале статьи матриц время переключения BTW (ISO) составляет 18 и 8 мс, а время переключения gtg – 43 и 24 мс соответственно. Очевидно, что с маркетинговой точки зрения указывать GTG для «традиционных» мониторов невыгодно – куда лучше оставить только стандартные значения ISO. А для «разогнанных» мониторов с технологией Overdrive (они, как правило, не могут похвастать очень низкими BTW), напротив, целесообразнее указывать значения латентности, присовокупив, что они замерены по «более правильной» системе. При этом выбирать аппарат лишь из-за сверхнизких значений GTG ни в коем случае нельзя: цифры порядка 4-6 мс GTG получаются только у «разогнанных» мониторов на основе TN+Film. Преимущества 4-6 мс перед 10-12 мс честно померенных GTG ощутить все равно невозможно (достаточно и 15-17 мс), а MVA– и PVA-матрицы по качеству изображения (глубокий черный цвет, высокая контрастность, хорошая цветопередача) гораздо лучше, чем TN+Film.


***

Единственный недостаток новых ЖК-мониторов на MVA-матрицах – высокая цена. Со временем, конечно, она снизится, но если технологию хочется попробовать уже сейчас, а тратить лишние $100-150 на хороший 17-дюймовый монитор жалко, то, как упоминалось выше, можно попробовать реализовать «доморощенный» Overdrive силами видеокарты. В случае с продукцией на основе графических процессоров ATI потребуется ускоритель семейства X300/X600/X700/X800[Включая интегрированное графическое ядро чипсета Xpress 200, основанное на графическом ядре X300] и любой «понимающий» эти GPU драйвер. В случае же с продукцией на основе GPU от nVidia потребуется GeForce шеститысячной серии (или старше) и драйверы ForceWare 70.xx (или старше).


Выводы

Собирая знакомым и друзьям компьютеры, я всегда советовал им не покупать не глядя «безвредный» ЖК-монитор[От которого глаза устают порой куда больше, чем от хорошего ЭЛТ, особенно если речь идет о недорогих моделях ЖК-панелей, которые большинство же и предпочитает. А все разговоры об электромагнитном излучении и даже радиации (!), которую якобы испускают ЭЛТ-мониторы, – не более чем миф], а обратить внимание на более дешевые и дающие куда лучшую картинку полупрофессиональные ЭЛТ, доведенные годами исследований почти до идеала. Но теперь, похоже, настают другие времена: новое поколение ЖК-мониторов наконец-то избавилось от «детских болезней» (плохой цветопередачи, низкой контрастности, малых углов обзора, большого времени отклика) и становится лучшей альтернативой безнадежно устаревшей электронно-лучевой трубке. Идеальная геометрия изображения, малые габариты, малое энергопотребление и возможность подстройки положения монитора относительно наблюдателя, включая портретные режимы; полное отсутствие мерцания, электробезопасность и экологичность – благодаря всему этому ЖК-мониторы, видимо, скоро будут в каждом доме. Главное, чтобы цены на «редкоземельные» пока S-IPS– и MVA-матрицы упали хотя бы до уровня цен на обычные TN+Film.


Fujitsu-Siemens ScenicView P17-2

Чтобы не быть голословными, мы взяли на тестирование 17-дюймовый ЖК-монитор Fujitsu-Siemens ScenicView P17-2, основанный на Super-PVA-матрице от Samsung[Восьмибитный цвет, технология ADCC (Advanced Dynamic Capacitance Compensation, еще одно название технологии Overdrive, используемое для своей продукции компанией Samsung)]. Сама Fujitsu-Siemens относит P17-2 к линейке Premium, где, выражаясь рекламным языком, «design meets performance»["Дизайн встречается с производительностью" (цитата с официального сайта FS)]; тем не менее дизайн этой модели особого впечатления на меня не произвел: стандартная «офисная лошадка» из белого пластика с парой крошечных «пищалок» под экраном. Редчайший в наше время случай – деньги с пользователя дерут не за дизайн и красивые цифирки, а за высочайшее качество изображения. А оно у P17-2 и вправду на высоте. Как и у всех матриц, основанных на технологии MVA (PVA), черный цвет не выглядит серым даже при высокой яркости: контрастность монитора – честные 1000:1. Цветопередача более чем удовлетворительная: градиентная заливка выглядит градиентной, а не «ступенчатой»; фотографии и фильмы – естественными, яркими и насыщенными[Никакого Frame Rate Control (FRC) с его «как бы 16,7 млн. цветов» – перед нами действительно 8-битный True Color]. Правда, с насыщенностью инженеры слегка перегнули палку – если вывести на экран полный градиент яркостей (0-255) по цветам в DisplayMate, то хорошо видно, что, начиная примерно с 90-процентной яркости, цвета сливаются друг с другом; впрочем, это легко можно подправить настройками. Еще в претензии к настройкам «по умолчанию» можно записать то, что монитор при подключении по стандартному аналоговому кабелю D-Sub чуть заметно «шумел» на сине-зеленом растре, и чтобы избавиться от этого эффекта, фазу пришлось чуть-чуть подправить вручную. Нашлась и пара битых пикселов; однако учитывая их крошечные размеры (разрешение матрицы – 1280x1024) и угольно-черный цвет (обусловленный технологией MVA), можно закрыть глаза на этот мелкий брак. В отличие от типовой TN+Film, изображение они не портят, и увидеть их можно, только пристально вглядевшись в экран (тени от нитей апертурной решетки в соответствующих CRT-мониторах куда заметнее). Углы обзора – полные 180° по обеим плоскостям. При взгляде со стороны слегка уменьшается контрастность (картинка чуть «выцветает»), но цветопередача остается корректной. Очень хорошая равномерность засветки экрана – нет ни ярких, ни темных областей. Про высокую контрастность и сочные цвета я уже говорил; добавлю сюда также неплохое антибликовое покрытие и широкие возможности настройки монитора.

Впрочем, хорошей цветопередачей и контрастностью профессиональные ЖК-мониторы могли похвастаться еще задолго до появления Overdrive, нам же сегодня интереснее быстродействие примененной в P17-2 матрицы. У меня нет специального оборудования, которым можно было бы измерить его объективно (заявленное в спецификациях время отклика – отнюдь не рекордные 14 мс); однако субъективно ни малейшего смазывания изображения я не заметил – ни в фильмах, ни в играх, ни при скроллинге текста и веб-страниц. Никаких артефактов, никаких теней – с учетом хорошей контрастности и цветопередачи, складывается ощущение, будто работаешь не с ЖК-панелью, а с отличным полупрофессиональным ЭЛТ-монитором, только очень компактным. В доказательство я специально сделал фотографии (выдержка – 1/100) нескольких ЖК-мониторов, основанных на матрицах разных типов: видно, что движущийся текст небольшой шлейфик за собой все-таки оставляет[Что и неудивительно: матрица все-таки инерционна, и на этих кадрах мы видим пикселы «на полпути» к правильному положению. На ЭЛТ-мониторе, к примеру, с такой выдержкой можно увидеть процесс отрисовки экрана электронным лучом, когда верхняя половина кадра уже готова, а нижняя – еще нет; подобные «микродетали» глаз все равно не различает], однако он куда меньше, чем у мониторов без технологии Overdrive, независимо от того, на какой матрице они построены.

Из приятных мелочей запомнилась удобная подставка. Помимо традиционной регулировки наклона экрана, монитор можно быстро развернуть в горизонтальной плоскости (повернуть к соседу), отрегулировать высоту расположения экрана, перейти к портретной ориентации и обратно. Блок питания встроен в монитор (есть отдельный выключатель); имеется DVI; меню полностью русифицировано. Вообще, P17-2 оставляет впечатление монитора класса «must buy» – стоит очень дорого (от $400 против обычных $250-300), но переплатить за это качество явно стоит.


    Ваша оценка произведения:

Популярные книги за неделю