Гигапиксельные голограммы со старого сканера: Собрали «на коленке»

Сканер формата A4, пылящийся на полке, вполне можно превратить в голографический микроскоп с гигапиксельным разрешением, доказали японские инженеры.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Процесс получения голограмм не так уж и сложен. В век фотопленки, по разрешению значительно превосходящей распространенные сегодня ПЗС-матрицы, запись голограммы не была проблемой. Но для цифровой голографии необходимо искать методы, обеспечивающие высокое (порядка гигапикселей) разрешение.

Гигапиксельные ПЗС-матрицы — устройства немногочисленные и дорогостоящие, ими пользуются в основном ученые (например, астрономы). Большинство современных камер оснащены матрицами с разрешением порядка нескольких мегапикселей, поэтому при создании голограмм приходится полагаться на сложные алгоритмы сканирования и обработки полученных данных.

Группа японских инженеров построила цифровой голографический микроскоп, объединив лазер с обычным офисным сканером, позволяющим сохранять изображения до 4800 dpi. Выстроенные в линию светочувствительные матрицы такого сканера скользят вдоль листа формата A4. Теоретически этот лист будет вмещать 56 144 x 39 698 отсканированных точек — а это более 2 гигапикселей.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Производительность и размеры вспомогательного оборудования заставила разработчиков ограничиться созданием голограмм с разрешением 0,43 гигапикселя, но этого более чем достаточно для получения качественного изображения.

Установка рассчитана на создание голограмм самым простым, линейным методом. Лазер, образец и записывающее устройство располагаются в одну линию, лазер направлен на объект, приемник (в данном случае сканер) записывает интерференционную картину, создаваемую излучением, проходящим мимо объекта, и светом, рассеянным его поверхностью.

Единственная серьезная проблема, с которой столкнулись инженеры, — обработка большого количества информации, генерируемой сканером, для восстановления исходного изображения. Чтобы с этой задачей мог справиться обычный персональный компьютер, пришлось применить нестандартные алгоритмы.

По сообщению MIT Technology Review