Текст книги "CCTV. Библия видеонаблюдения. Цифровые и сетевые технологии"
Автор книги: Владо Дамьяновски
Жанр:
Технические науки
сообщить о нарушении
Текущая страница: 22 (всего у книги 42 страниц)
Рекомендация Н.320 описывает не только кодирование изображения, но стандартизирует и другие компоненты коммуникационной системы. Большим преимуществом этого стандарта является высокая совместимость. Так, например, видеофон ISDN от одного производителя может обмениваться информацией системой видеоконференции ISDN от другого производителя или видеопередатчиком ISDN, если все они поддерживают стандарт Н.320.
Н.261
Н.261 является одним из самых старых стандартов сжатия и именно его некоторые производители цифровых видеорегистраторов воплотили в своей продукции в те времена, когда появились первые DVR.
Н.261 – это стандарт видеокомпрессии из семейства стандартов Н.320, которые разработаны для видеоконференций. На момент появления стандарта Н.261 (начало 1980-х) не было сети Интернет, а самым быстрым способом передачи цифровой информации были линии ISDN. Поэтому вышедший в то время стандарт был оптимизирован для сжатия видеоизображения таким образом, чтобы его можно было передавать в диапазоне скоростей ISDN от 64 кбит/с до 1.5 Мбит/с. Так же, как стандарты MPEG, Н.261 определяет форматы как для хранения, так и для передачи сжатого видео. Более того, поскольку скорость передачи данных по линиям ISDN увеличивается с интервалом 64 кбит/с, то стандарт Н.261 позволяет настраивать уровень сжатия ступенчато, то есть постепенно увеличивая требуемую пропускную способность по 64 кбит/с.
Н.261 обычно работает с изображением формата CIF (352x288 пикселов для PAL и 352x240 пикселов для NTSC), который появился вместе с Н.261. Четверть этого разрешения также используется под именем QCIF (176x144 пиксела). Хотя стандарт Н.261 и предусматривает более высокое разрешение 704x576 пикселов, большинство цифровых видеорегистраторов со сжатием Н.261 используют формат CIF, сравнимый по качеству с VHS, как это было в случае и с MPEG-1. Хотя на экране компьютера можно увеличить передаваемое изображение, разрешение от этого не возрастет, и будут отчетливо видны блоки и пикселы изображения.
Стандарт Н.261 нашел самое широкое применение в рамках семейства стандартов Н.261 для систем видеоконференции. Сжатие Н.261 не особенно эффективно для более качественного видео в видеонаблюдении, но было очень удобно для удаленного доступа по низкоскоростным каналам связи. Говоря об этом в прошедшем времени, я хочу подчеркнуть, что при работе на низкоскоростных каналах связи Н.261 значительно проигрывает MPEG-4.
Н.263
Н.263 появился в 1996 году и стал дальнейшим развитием стандарта Н.261. Н.263 был специально оптимизирован для передачи изображения по очень низкоскоростным линиям связи со скоростью ниже 64 кбит/с в рамках семейства стандартов Н.320, например, для передачи по модему и телефонным линиям. Н.263 является альтернативой стандарту Н.261. При передаче изображений в сети GSM (9600 бит/с) и аналоговым телефонным линиям использование стандарта Н.263 позволяет несколько улучшить качество изображения и скорость обновления. На более высокоскоростных линиях связи качество будет сопоставимо с Н.261. Поскольку в стандарте Н.263 применен более эффективный алгоритм сжатия, то он позволяет добиться более высокого качества, чем у Н.261, на линиях связи с различной пропускной способностью, в том числе и ISDN. Н.263 позволяет передавать изображение с очень низкой скоростью передачи данных, как у модемов, скорость которых была в пределах 15–20 кбит/с. Первоначально планировалось с введением нового стандарта Н.263 сделать возможными видеоконференции по обычным телефонным линиям. Хотя для этой цели мог подойти формат QCIF, для того чтобы гарантировать работу на низкоскоростных линиях, решено было добавить еще один формат, который называется Sub-QCIF (SQCIF). Но кроме этого, были добавлены форматы высокого разрешения, чтобы воспользоваться преимуществами новых коммуникационных технологий и высокоскоростных линий связи. SQCIF предусматривает очень низкое разрешение (128x96 пикселов). Два других новых формата высокого разрешения (704x576 и 1408x1152) являются дополнительными, так как оборудование Н.263 должно поддерживать в обязательном порядке только форматы SQCIF, QCIF и CIF.
Н.264
Н.264 – это один из самых многообещающих стандартов в череде новых разработок. Он разрабатывался совместно группой Video Coding Experts Group (VCEG) из ITU-T и группой MPEG из ISO. Это историческое объединение известно как JVT (Joint Video Team). Сам стандарт идентичен ISO MPEG-4 part 10, который также известен как стандарт AVC для улучшенного кодирования видео (Advanced Video Coding). В черновом варианте стандарт Н.264 был готов к маю 2003 года, и в нем были реализованы технологии и особенности, взятые из Н.263 и MPEG-4.
Рис. 9.43. Н.264 использует сложные алгоритмы предсказания в макроблоках
Н.264 – это название относится к серии Н.26х видеостандартов ITU-T, тогда как AVC относится к серии MPEG-стандартов ISO. Поэтому новый стандарт иногда называют H.264/AVC или AVC/H.264, чтобы подчеркнуть общность его корней. Название Н.261_тоже взято из истории ITU-T, но оно встречается нечасто, хотя изредка и используется.
Основной целью проекта Н.264 была разработка стандарта, который можно было бы быстро внедрить, используя низкие скорости передачи данных, что, в свою очередь, снизило бы требования, предъявляемые к декодирующему оборудованию и линиям связи. Н.264 содержит несколько новых технологий, которые позволяют сжимать видео более эффективно, чем это делали используемые ранее стандарты. Например, в Н.264 для компрессии без потерь синтаксических элементов видеопотока используется схема статистического кодирования потока САВАС (Context-Adaptive Binary Arithmetic Coding). Также в стандарте Н.264 используется адаптивный фильтр для уменьшения артефактов блочности (Adaptive Deblocking Filter), который применяется на стадии кодирования и декодирования видео, то есть фильтрация производится для каждого кадра еще до того, как он будет использован для кодирования или декодирования последующих кадров. Этот фильтр позволяет уменьшить присутствие блочных артефактов, характерных для алгоритмов сжатия, использующих дискретное косинусное преобразование. В предыдущих стандартах при оценке компенсации движения использовался только предшествовавший кадр, но Н.264 позволяет для этой цели использовать кадры, находящиеся сколь угодно далеко от обрабатываемого кадра. Для большинства сцен это дает достаточно скромное улучшение в качестве и небольшое уменьшение видеопотока, но в некоторых случаях, например, при быстрых периодических вспышках и мерцании это позволяет значительно уменьшить размер видеопотока. Эти идеи, а также и многие другие привели к тому, что Н.264 значительно более эффективен, чем MPEG-4 ASP. Н.264 обычно работает более эффективно, чем MPEG-2, при меньшем размере видеопотока. Различные тесты и сравнения показали, что стандарт Н.264, по крайней мере, в 2–3 раза более эффективен, по сравнению с MPEG-2 при том же качестве изображения.
Рис. 9.44. Уже начали появляться диски HD DVD емкостью 30 Гбайт
Кроме того, совместная группа JVT заканчивает работы над дополнениями к стандарту, которые получили название FRExt (Fidelity Range Extensions). Эти дополнения позволят стандарту увеличить точность кодирования за счет поддержки 10– и 12-битного кодирования и увеличения цветового разрешения с использованием форматов оцифровки, известных как YUV 4:2:2 и YUV 4:4:4.
Н.264 уже широко используется в сфере видеоконференций, он был предварительно принят как обязательный стандарт для будущих спецификаций DVD, которые также известны как HD-DVD и разрабатываются DVD Forum.
Как и для многих видеостандартов ISO, для Н.264 есть пример реализации, который находится в свободном доступе. Этот пример должен только показать возможности нового стандарта, но не предназначен для практического применения.
Один из лидеров в сфере компьютерной обработки изображений и мультимедийных приложений компания Apple Computer уже включила стандарт Н.264 в новую версию своей операционной системы Mac OS X. Другие разработчики вскоре последуют этому примеру.
Motion Wavelet
Существует немалое количество и других алгоритмов сжатия видеоизображения, которые являются собственными разработками компаний-производителей систем видеонаблюдения. По этой причине эти алгоритмы никак не стандартизированы, и такой работы даже не ведется. Кроме того, подробности реализации разработчики предпочитают не сообщать, так как это является коммерческой информацией. От детального рассмотрения таких алгоритмов на страницах книги мы воздержимся и в качестве примера приведем только один алгоритм сжатия видеоизображения Motion Wavelet, разработанный одной из российских компаний.
Motion Wavelet – алгоритм сжатия видеоизображения, то есть сжатие кадров основано на том, что они образуют видеопоследовательность. Motion Wavelet обрабатывает изменения, которые возникают в очередном кадре по сравнению с предыдущим либо с опорным кадром. Этим он отличается от алгоритмов сжатия изображения (JPEG и Wavelet), в которых применяется покадровое сжатие. Поэтому размер кадра в Motion Wavelet при сопоставимом качестве получается меньше в 5-10 раз. Разница в среднем размере кадра будет зависеть от фона, наличия перемещающихся объектов и от других факторов.
В отличие от многих алгоритмов сжатия видеоизображения (например, алгоритмы MPEG) Motion Wavelet работает не по принципу вычитания кадров и сжатия полученной разницы. Motion Wavelet при анализе последовательности кадров использует детектор движения, который определяет на следующем кадре, какие элементы изображения изменятся, и сжимает только их. Если начинается движение во всем кадре, то будут обрабатываться и сжиматься все кадры полностью, что будет аналогично покадровому сжатию Wavelet. Впрочем, для видеонаблюдения именно сжатие, связанное с движением отдельных фрагментов, играет основную роль.
Обычно в тех алгоритмах, у которых сжатие основано на обработке разности кадров, не допускается изъятие хотя бы одного кадра из видеопотока, иначе он «распадается».
Эта проблема есть в наиболее распространенных реализациях алгоритма MPEG – они не могут адаптироваться к пропускной способности канала (например, при передаче видеоизображения по сети или по модему) и требуют канал фиксированной ширины. При использовании покадровых алгоритмов JPEG и Wavelet сжимается каждый кадр, поэтому здесь такая проблема отсутствует. Motion Wavelet может адаптироваться к каналу, поскольку если из потока, сжатого с его помощью, выкидывать блоки, то кадр потом можно будет восстановить, потому что сжатие очередного кадра по Motion Wavelet не имеет жесткой привязки к предыдущему кадру.
В наиболее распространенных реализациях алгоритма MPEG фиксируется величина сжимаемого потока. Это означает, что чем больше изменений происходит от кадра к кадру, тем хуже качество сжатого видеоизображения. Если в кадре ничего не изменяется, то качество сжатого изображения – отличное, но если объект начал двигаться, качество сжатого видеоизображения падает. Для видеонаблюдения такую ситуацию нельзя считать удовлетворительной, потому что здесь очень важно наблюдение с хорошим качеством именно движущихся объектов. В Motion Wavelet при наличии в кадре какого-либо действия фиксируется качество: если в кадре начинается движение, то увеличивается величина сжатого потока, а качество остается стабильным.
Еще одна проблема, которая возникает при передаче видеоизображения по сети в форматах MPEG, заключается в том, что видеопоток, сжатый с одной скоростью (например, 25 к/с), без дополнительного перекодирования нельзя передавать меньшей скоростью из-за жесткой привязки в последовательности кадров друг к другу. В алгоритмах Wavelet и JPEG нет этой проблемы. Она была решена и в алгоритме Motion Wavelet, который также позволяет при передаче пропускать кадры.
Так как Motion Wavelet для сжатия кадров использует вейвлет-преобразование, то все преимущества этого сжатия сохранились. Благодаря масштабируемости вейвлет-сжатия Motion Wavelet также позволяет из одного видеопотока быстро получать видеопотоки разного разрешения, когда видеопоток с высоким разрешением используется, например, для записи, а для удаленного просмотра используется видеопоток меньшего разрешения. Кроме того, в алгоритмах, использующих дискретное косинусное преобразование, как, например, JPEG и MPEG, возникает эффект блочности, но для Motion Wavelet, как и для любого вейвлет-сжатия, этот эффект нехарактерен.
Пикселы и разрешение
Все алгоритмы компрессии, о которых мы говорили ранее, базируются на одном мельчайшем элементе. Это пиксел, «кирпичик», из которых строится любое цифровое изображение. Этот термин необходимо проанализировать подробнее, так как именно пиксел определяет четкость изображения и детализацию, которую мы увидим.
Рис. 9.45. Пикселы RGB на люминофоре цветного монитора или телевизора с электронно-лучевой трубкой
Пиксел (от англ. Pixel, Picture Element, иногда Pel, т. е. элемент изображения) – это мельчайшая часть электронного (цифрового) изображения. Пикселы – это атомы изображения. Крайне важно понимать, что такое пиксел для цифровой фотографии, но то же самое можно сказать и применительно к видеонаблюдению, особенно после появления цифровых видеорегистраторов. Многие из вас употребляют термин «пиксел» при печати брошюр и каталогов для своей компании, а также при обсуждении характеристик жидкокристаллических дисплеев, но при этом мы совсем необязательно говорим о тех же пикселах, которые применяются в цифровом видео.
Пикселы можно связать с разрешением изображения, но крайне важно понимать различия между пикселами разного рода, поскольку очень часто мы пытаемся распознать мельчай шие детали (например, лицо злоумышленника) на изображении, сжатом с высокой степенью компрессии.
В офсетной печати вместо пикселов говорят точки (dots), но сути дела это не меняет, поскольку эти элементы невозможно разделить на более мелкие и получить при этом дополнительную значащую информацию об изображении, частью которого они являются. Проще говоря, в пикселах содержится элементарная информация о мельчайших деталях изображения, то есть информация о цвете и яркости пиксела. Применительно к телевидению мы говорим в данном случае о цветности (chrominance) и яркости (luminance) элемента изображения. Поскольку при отображении всего разнообразия цветов и теней мы ограничены набором первичных цветов, пикселы состоят из более мелких деталей, которые отражают определенное значение своих первичных цветов. Поэтому пикселы на самом деле не являются мельчайшими элементами изображения, однако только группа всех первичных элементов образует «полный» пиксел.
Рис. 9.46. Расположение пикселов RGB на стандартном телевизионном экране (смещение на половину пиксела по вертикали связано с чересстрочной разверткой)
А одинаковы ли пикселы, которые используются в цифровой фотографии, телевидении и печати? Это очень важный вопрос, которому мы уделим особое внимание. Нет, это пикселы разного рода. И в разнице между ними кроется множество ошибок и неточностей, которые возникают во многих сферах, связанных с обработкой изображения, одной из которых и является видеонаблюдение.
Как известно, в цветном телевидении используют цвета красного, зеленого и синего люминофора, чтобы имитировать все остальные цвета. С помощью трех первичных цветов (RGB) мы можем представить практически любой (почти любой) цвет, воспринимаемый человеческим глазом. При соответствующей интенсивности яркости красного, зеленого и синего люминофора мы также можем отобразить любую яркость пиксела (от белого до черного), в том числе и телесные цвета. На самом деле смешивание цветов происходит уже у нас в глазах, когда мы смотрим на пикселы с нормальной зрительной дистанции, которая настолько велика по сравнению с размером пикселов, что мы воспринимаем три первичные точки как одну точку результирующего цвета, полученную в результате аддитивного смешения цветов красного, зеленого и синего люминофора в пикселе.
Рис. 9.47. Пример иного расположения элементов RGB, из которых состоит пикселы
В аналоговом телевидении, которым большинство из нас до сих пор пользуется, и, конечно же, в видеонаблюдении пикселы в качестве элементарных деталей присутствуют на обоих концах сложной цепи, в результате которой мы получаем изображение: на входе, т. е. в телекамере, и на выходе, т. е. на мониторе. В телекамерах применяются ПЗС-матрицы, у которых мельчайшие элементы – пикселы – состоят из красной, зеленой и синей компоненты. Эти цветовые компоненты пиксела реагируют на красную, зеленую и синюю часть спектра проецируемого изображения, генерируя электроны пропорционально количеству цвета этой цветовой компоненты пиксела проецируемого туда изображения. В трехматричных ПЗС-телекамерах свет разделяется на три цветовые группы светоделительной призмой, а затем каждая световая группа проецируется на соответствующую ПЗС-матрицу. Это означает, что для каждого первичного цвета имеется отдельная ПЗС-матрица. Трехматричные ПЗС-телекамеры дают качественный видеосигнал с прекрасной цветопередачей и высоким разрешением. К сожалению, трехматричные ПЗС-телекамеры редко используются в видеонаблюдении, так как они очень дороги и, как правило, более громоздки, чем их одноматричные аналоги, которые в основном и используются. В цветных одноматричных ПЗС-телекамерах каждый пиксел состоит из трех первичных цветовых элементов (RGB). Справедливости ради нужно отметить, что существуют ПЗС-матрицы, где в качестве первичных цветов используются не красный, зеленый и синий, а голубой, желтый и пурпурный (как основные цвета в печати). Но такие телекамеры очень редко применяются в видеонаблюдении, и поэтому мы не будем рассматривать их как значительный сегмент видеонаблюдения. В противном случае нам было бы необходимо знать, что голубой, желтый и пурпурный преобразуются в самой телекамере при помощи таблиц в красный, зеленый и синий, так как композитный видеосигнал на выходе все равно должен быть представлен значениями RGB. Как видно на схематичной иллюстрации матрицы ПЗС (одноматричной телекамеры) фильтрация цветов RGB происходит в форме мозаики, поэтому этот фильтр называется мозаичным. Следует отметить, что зеленых светочувствительных элементов в два раза больше, чем синих или красных. Это связано с тем, что большая часть яркостной информации лежит в пределах зеленого спектра и человеческий глаз наиболее чувствителен к зеленому цвету. Именно эти зеленые ячейки сильно влияют на разрешение телекамеры.
Рис. 9.48. Мозаичный фильтр на ПЗС-матрице
Логично было бы предположить, что разрешение в ТВ-линиях цветной одноматричной ПЗС-телекамеры рассчитывается путем деления количества горизонтальных (трехцветных) пикселов на 3/4 (соотношение сторон), на практике оно считается иначе. Учитывая чересстрочную развертку и мозаичное расположение, реальное разрешение цветной одноматричной ПЗС-телекамеры будет порядка 70–80 % от приведенных ранее расчетов. Таким образом, ПЗС-матрица размером 768x582 пиксела будет иметь разрешение приблизительно 768/4x3x0.8=460 ТВ-линий. А цветные трехматричные ПЗС-телекамеры имеют как минимум на 100 ТВ-линий больше только потому, что используются все трехцветные пикселы и отсутствует мозаичный фильтр.
В качестве необходимого отступления от темы мы напомним нашим читателям, что до изобретения ПЗС-телекамер (когда использовались телекамеры с передающими трубками) в связи с тем, что изображение считывается с мишени трубки в результате сканирования непрерывным электронным лучом, не существовало дискретных и конечных мельчайших элементов изображения (как в случае с ПЗС-матрицами).
Дискретные элементы изображения появились только с изобретением цветного телевидения, когда стали изготовлять телевизоры с электронно-лучевыми трубками, в которых использовалась цветоделительная решетка. Именно она разделяла световой поток на красные, зеленые и синие точки.
Когда речь идет о черно-белых телекамерах, мы говорим о разрешении, а не о пикселах, что напрямую связано с мельчайшим электронным лучом, который может сгенерировать телекамера и отобразить монохромный экран. Если вы помните, черно-белые мониторы имели довольно высокое разрешение только потому, что в них не использовались решетки, или сетки, и, соответственно, не было связанных с этим физических ограничений, которые появились позже с изобретением цветного телевидения. Все зависело только от того, насколько точно электронный луч воспроизводит детали, зафиксированные электронным лучом телекамеры. Возвращаясь снова к технологиям современного видеонаблюдения, подчеркнем, что необходимо четко понимать, что разрешение изображения в основном определяется источником, то есть разрешением ПЗС-телекамеры, что зависит от количества пикселов на ПЗС-матрице.
Нам не удастся отобразить на мониторе больше деталей (даже если сам монитор способен на это), чем зафиксировала ПЗС-матрица телекамеры. И, хотя всегда возможно точно определить количество пикселов на ПЗС-матрице, мы по-прежнему пользуемся ТВ-линиями при оценке качества деталей изображения, получаемого от телекамеры. Разрешение в ТВ-линиях измеряется с помощью тестовых таблиц, и в реальности вам вряд ли удастся идеально точно расположить таблицу перед телекамерой, поэтому ТВ-линии показывают несколько меньше деталей, чем получится в результате вышеприведенного попиксельного расчета. Когда видеосигнал отображается на экране монитора, самый маленький элемент изображения определяется либо пикселом ПЗС-телекамеры, либо пикселом монитора. Если у нас монитор с низким разрешением, например, маленький ЭЛТ-монитор с диагональю 23 см и с разрешением 330 ТВ-линий, а наша телекамера способна различать до 480 ТВ-линий, то мы увидим только то, на что способен монитор, то есть 330 ТВ-линий. А если у нас телевизионный монитор, который способен показывать около 700 ТВ-линий, то при той же самой телекамере мы увидим только 480 ТВ-линий.
Чтобы получить полное представление об измерении разрешения, необходимо сказать еще несколько слов о разрешающей способности объектива, которая измеряется в линиях на миллиметр. Есть оптические испытательные таблицы, которые измеряют эту функцию как разрешающую способность объектива в сравнении с контрастом. Это функция передачи модуляции (ФПМ). Тут все немного усложняется, так как ФПМ учитывает только черные линии на белом фоне (в отличие от учета черных и белых линий при измерении разрешения в ТВ-линиях, как мы это делаем в видеонаблюдении).
Рис. 9.49. Разрешение объектива, выраженное в парах линий на миллиметр
Разрешение в точках на дюйм (DPI)
Термин «точки на дюйм» (DPI) широко употребляется в настоящее время. Но под словом «точка» зачастую подразумеваются разные вещи, что и породило путаницу и неправильное толкование (нечто похожее происходит, когда в видеонаблюдении определяют разрешение в линиях и ТВ-линиях). В печати мы выражаем разрешение в точках на дюйм. С учетом того, что дюйм равен 2.54 мм, можно пересчитать в точки на миллиметр, но такие единицы измерения не будут стандартными. Поэтому, когда мы говорим о 300 точках на дюйм, на практике это означает, что на миллиметр приходится более 10 точек. Естественно, это очень маленький размер, и человеческий глаз не в состоянии различить две мельчайшие цветные точки, когда они расположены очень близко при печати с разрешением 300 точек на дюйм. Теоретически для сравнения возможно перевести телевизионное разрешение, которое используется в видеонаблюдении, в точки на дюйм.
Но есть одно большое «но»… В печати смешивание цветов реализуется совершенно иначе, чем при аддитивном смешивании, когда используются основные цвета RGB. В данном случае мы имеем дело с субтрактивным смешиванием, при котором в качестве основных используются голубой, пурпурный и желтый. Для дополнительных темных тонов добавляется черный, хотя теоретически цветов CMY достаточно для отображения всей палитры цветов. Все вы знаете, что такая печать называется CMYK. Таким образом, при печати цветных журналов и книг в основном используется 4 цвета красок. Для получения результирующего цвета в печати мельчайших элементов изображения все элементарные цветовые точки располагаются очень близко друг к другу (схожим образом происходит смешение на телевизионном экране). Основное отличие от телевидения заключается в том, что цветовые точки не располагаются в линию одна за другой (как это в настоящее время происходит на люминофоре большинства электронно-лучевых трубок и на экране жидкокристаллических мониторов). При печати четыре цветовые точки расположены под разными углами: 45 градусов для черного, 75 градусов для пурпурного, 90 градусов для желтого и 105 градусов для голубого. Для печати качественных журналов и брошюр в полиграфии требуется разрешение 300 точек на дюйм. Таким образом, когда мы читаем при нормальном расстоянии для чтения (обычно 50 см), человеческий глаз не различает цветные пикселы, и мы видим уже результат цветового смешения.
Рис. 9.50. К сожалению, по техническим причинам в черно-белом издании мы не сможем проиллюстрировать принципы цветной печати CMYK, но некоторое представление о структуре пикселов вы получите, взглянув на увеличенную область (нижний правый угол) иллюстрации.
Психофизиология восприятия мелких деталей
Многочисленные эксперименты и тесты показали, что человеческий глаз может различить самое большее 5–6 пар линий на миллиметр. Этот показатель подразумевает оптимальное расстояние между глазом и объектом 30 см, то есть, когда мы, например, читаем достаточно мелкий текст. Это дает минимальный угол примерно в 1/60 градуса. Таким образом, это значение 1/60 градуса считается пределом угловой разрешающей способности для нормального зрения. Мы можем использовать угловую разрешающую способность глаза для лучшего понимания того, как человек воспринимает мелкие детали, что позволит нам затем применить наши теоретические познания на практике, в частности, в видеонаблюдении.
При расчете расстояния между человеком и монитором существует простая рекомендация, которая предписывает умножать высоту экрана монитора на семь. Вообще, необходимо понимать, что расстояние до монитора – это крайне важный аспект психофизиологического восприятия деталей в изображении. Человеку, который смотрит в монитор, совершенно не нужно находиться слишком близко к экрану, но и очень далеко от экрана располагаться зрителю тоже не стоит. При стандарте аналогового телевидения PAL с его 576 активными строками, расстояние до экрана монитора для оптимального восприятия деталей изображения рассчитывается исходя из предельного для глаза человека значения 5–6 пар линий на миллиметр, проецируемых на расстояние, где находится экран монитора. Так, если мы используем правило семикратной высоты экрана и возьмем, например, обычный монитор с диагональю 15 дюймов (38 см), у которого высота экрана будет примерно 23 см, то рекомендуемое расстояние до экрана составит примерно 1.6 м. Максимальная разрешающая способность человеческого глаза на этом расстоянии уменьшится примерно в 5 раз по сравнению с тем, что указано на рисунке для дистанции 0.3 м (1.6/0.3=5.33). В то время как на расстоянии 0.3 м глаз человека различает 5–6 пар линий на миллиметр, для 1.6 м разрешающая способность глаза уменьшится уже до 1 пары линий на миллиметр (2 линии на миллиметр, 0.5 миллиметра на 1 линию), что примерно и получится у нас, если мы разделим 576 активных линий на высоту экрана 23 см (2.5 линии на миллиметр). Все эти расчеты подразумевают, конечно, что у нас высококачественный монитор с высоким разрешением. Если мы сильно приблизимся к такому монитору, то мы не увидим никакой дополнительной информации. Если же мы увеличим дистанцию между человеком и экраном монитора, то это тоже не даст никакого положительного эффекта. Когда мы приближаемся к монитору, то эффект будет таким же, как если бы мы заменили этот монитор на другой, но с большей диагональю. Если, допустим, вы замените цветной монитор с диагональю 21 дюйм на другой монитор с диагональю 23 дюйма при том же расстоянии 1.6 м, то качество изображения и мелкие детали будут визуально восприниматься зрителем хуже. Для оптимального восприятия деталей на мониторе с диагональю 21 дюйм расстояние будет уже 2.1 м.
Рис. 9.51. 1/60 градуса считается пределом угловой разрешающей способности человеческого глаза
Такая же логика прослеживается и те же самые вычисления будут справедливы и для компьютерных мониторов высокого разрешения с электронно-лучевой трубкой и размером зерна 0.21 мм. В этом случае оптимальным расстоянием до экрана дисплея будет около 0.6 м. Большинство жидкокристаллических дисплеев не могут похвастать столь малым размером зерна, которое в этом случае обычно составляет 0.28 мм. Поэтому на них удобнее смотреть с расстояния примерно 1 м.
Здесь указаны приблизительные расстояния между зрителем и экраном монитора, которые основываются на пределе угловой разрешающей способности человеческого глаза 1/60°.
При том же расстоянии до экрана визуально будет восприниматься как значительно более качественное изображение от обычного компьютерного дисплея с разрешением XGA (1024x768 пикселов), где реальная разрешающая способность дисплея будет 92 точки на дюйм (dpi). Это значение получается делением 1024 пикселов на ширину 14-дюймового LCD-дисплея ноутбука. Поэтому дисплей компьютера имеет большую площадь (в пикселах), но также и более высокую частоту обновления, чем мы используем в видеонаблюдении. Имейте в виду, что для нормального отображения таких высококачественных изображений на экране компьютер должен иметь хороший видеоадаптер с достаточным количеством видеопамяти, чтобы обрабатывать это количество пикселов (1024x768) с нужным количеством цветов для передачи реальной сцены (глубина цвета 24 бит, что позволяет отображать 16.7 миллионов цветов в цветовой схеме RGB). И еще одно важное замечание: такой дисплей не будет совместимым с видеостандартами PAL или NTSC, так как это компьютерный дисплей XGA. Для отображения вышеупомянутых стандартов потребуется преобразование, которое может быть более или менее успешным в зависимости от алгоритмов и технологии дисплея.
Рис. 9.52. Здесь указаны приблизительные расстояния между зрителем и экраном монитора, которые основываются на пределе угловой разрешающей способности человеческого глаза 1/60 градуса