Биоинженеры из Калифорнийского университета в Лос-Анджелесе (UCLA) разработали новый класс систем бионических 3D-камер, которые способны одновременно имитировать многоракурсное зрение мух и естественное локационное восприятие летучих мышей. Об этом сообщает портал Eurekalert. Перевод основных положений публикации представлен изданием discover24.ru.

В темноте летучие мыши могут визуализировать яркую картину своего окружения, используя форму эхолокации – их высокочастотный писк отражается от окружающей среды и улавливается ушами. Микро-различия во времени отклика и интенсивности звука сообщают этим ночным животным в режиме реального времени о расположении объектов и препятствий на их пути.

Многие насекомые имеют органы зрения геометрически сложной формы, в которых каждый «глаз» состоит из сотен или десятков тысяч отдельных зрительных единиц, что позволяет видеть одно и то же с разных направлений. Например, выпуклые сложные глаза мух дают им почти 360-градусный обзор, хотя имеют фиксированную длину фокуса – из-за чего им трудно видеть что-либо вдали, например, мухобойку.

Вдохновившись этими двумя свойствами, обнаруженными у мух и летучих мышей, исследовательская группа под эгидой UCLA приступила к разработке высокопроизводительной системы 3D-камер с расширенными возможностями, которые используют эти преимущества, но также устраняют присущие природным формам недостатки.

«Несмотря на то, что сама идея была опробована, наблюдение на разных расстояниях и вокруг окклюзии было серьезным препятствием. Чтобы решить эту проблему, мы разработали новую вычислительную структуру обработки изображений, которая впервые позволяет получать широкий и глубокий панорамный вид с помощью простой оптики и небольшого набора датчиков», – пояснил руководитель исследования Лян Гао, доцент Инженерной школы Самуэли UCLA.

Эта структура, получившая название «Компактная фотография светового поля» (CLIP), позволяет системе камер «видеть» с расширенным диапазоном глубины, в том числе вокруг объектов. В ходе экспериментов исследователи продемонстрировали, что их система способна «увидеть» скрытые объекты в «слепых зонах», которые не видны обычным 3D-камерам.

Кроме того, исследователи в своей системе 3D-камер также использовали датчики типа LiDAR, в которых лазер сканирует окрестности для создания 3D-карты местности. Обычный LiDAR без CLIP сделал бы снимок сцены с высоким разрешением, но пропустил бы скрытые объекты, как это сделали бы наши человеческие глаза.

По словам Гао, CLIP помогает массиву камер понять, что скрыто в «слепых зонах». В сочетании с LiDAR система способна достичь эффекта эхолокации летучей мыши, поэтому можно обнаружить скрытый объект по тому, сколько времени требуется свету, чтобы отразиться обратно в камеру.

Используя семь камер LiDAR с CLIP, массив делает изображение сцены с более низким разрешением, обрабатывает то, что видят отдельные камеры, а затем реконструирует объединенную сцену в виде трехмерного изображения с высоким разрешением. Исследователи продемонстрировали, что система камер может отображать сложную трехмерную сцену с несколькими объектами, расположенными на разных расстояниях.

Соавторами опубликованного исследования стали аспирант биоинженерии UCLA Яяо Ма и бывший постдокторант Инженерной школы Самуэли Сяохуа Фэн, ныне научный сотрудник Исследовательского центра Чжэцзян в Ханчжоу (КНР). По оценкам исследователей, разработанная ими технология может быть внедрена в автономные транспортные средства или медицинские инструменты визуализации с сенсорными возможностями, намного превосходящими то, что сегодня считается современным.