Нейросеть научили реалистично озвучивать панорамные снимки

Американские разработчики создали алгоритм, способный самостоятельно добавлять на панорамные снимки звуки от объектов, таких как автомобили и люди. При анализе снимка алгоритм учитывает расположение объектов на нем и располагает источники звука соответствующим образом, благодаря чему пользователь может понять откуда исходит тот или иной звук, рассказывают авторы статьи, которая будет представлена на конференции CHI 2019.

Поскольку шлемы виртуальной реальности получают все большее распространение, разработчики программного обеспечения уделяют больше внимания программному обеспечению для них, в том числе программам для просмотра панорамных снимков. Для достижения большего эффекта погружения в мир на снимке инженеры и программисты предлагают различные разработки. К примеру, Google и Disney создали экспериментальные многокамерные установки, позволяющие создать панорамный снимок с имитацией эффекта объемного восприятия. Кроме того, компании представляют шлемы виртуальной реальности со все более качественными экранами и другими визуальными технологиями, к примеру, поддержкойфовеального рендеринга. Однако все эти разработки нацелены на улучшение визуального восприятия, тогда как в области звука в VR-устройствах подобных работ намного меньше.

Лап Фай Юй (Lap-Fai Yu) из Университета Джорджа Мейсона и его коллеги создали алгоритм, позволяющий добавлять на панорамные снимки реалистичные звуки, расположение и тип которых соответствует объектам на снимке. Единственные данные о реальном мире, изображенном на снимке, которые получает алгоритм — это сам панорамный 360-градусный снимок. Звуки, которые алгоритм накладывает на панораму, не записываются во время ее съемки, а берутся из базы данных, составленной авторами. Она состоит из 512 аудиозаписей, разбитых на два типа — фоновые звуки, такие как звуки моря или улицы, а также звуки от конкретных объектов, к примеру, разговоры людей, шум автомобилей или звуки от животных. Всего в обоих типах собраны звуки от объектов примерно 50 типов, каждому из которых присвоена соответствующая метка.

Во время анализа снимка алгоритм сначала определяет тип окружения, к примеру, улица, пляж или лес, и присваивает соответствующую метку для наложения фоновых звуков. Для этого он нарезает панораму на десять частей, определяет тип окружения для каждой из них, а затем присваивает всему снимку наиболее часто встретившийся во время классификации тип. Затем сверточная нейросеть, обученная на известном датасете различных объектов COCO, приступает к более тщательному анализу и определяет на снимках отдельные объекты и присваивает им метки, соответствующие их типу. После этого алгоритм определяет не только пространственное расположение этих объектов, но и рассчитывает их расстояние от центра панорамы. Для этого пользователю необходимо один раз ввести расстояние до одного из объектов, после чего алгоритм будет использовать его в качестве калибровочных данных. Благодаря этому звуки от объектов, расположенных далеко от центра, будут тише.

После того, как нейросеть разметила все объекты и рассчитала их расположение, пользователь может запустить программу для просмотра панорам. В ней можно видеть саму панораму, а также слышать звуки всей сцены и звуки конкретных объектов, взятые из базы данных. При использовании шлема виртуальной реальности человек воспринимает эти звуки объемными благодаря тому, что при движении головы расположение их источника меняется относительно человека, как и в реальном мире.

Источник

Tags:

ТЕБЕ МОЖЕТ ПОНРАВИТЬСЯ

Cannes Lions-2019. Победители в категории Social & Influencer Lions

Представляем вашему вниманию обладателей львов в категории Social & Influencer Lions

Cannes Lions-2019. Победители в категории PR Lions

Представляем вашему вниманию победителей Cannes Lions в категории PR Lions

Cannes Lions-2019. Победители в категории Media Lions

Представляем вашему вниманию победителей Cannes Lions в категории Media Lions