Группа японских исследователей из различных институтов и частных компаний разработала концептуально новое программное обеспечение, которое пишет музыку, ориентируясь на эмоциональную реакцию слушателя.
Компьютер научился сочинять музыку для грусти и веселья

Современные программы, пишущие музыку, используют фрагменты ранее написанных композиций или складывают мелодию из отдельных нот. Другие программы анализируют музыкальные предпочтения человека и подбирают новую музыку. Однако до сих пор ни одна из них не учитывала эмоциональную реакцию человека на те или иные сочетания звуков. 20170116_1_fig1.png Так выглядит прототип прибора, который пишет музыку, ориентируясь на биоэлектрическую активность мозга слушателя. Японские и бельгийские инженеры предложили строить мелодию, учитывая реакцию человека на услышанные звуки. Они собрали прототип, в котором сенсоры, фиксирующие электромагнитные колебания мозга (прибор ЭЭГ) объединён с процессором и наушниками. Когда человек слышит набор звуков, прибор регистрирует изменения и запоминает, как те или иные сочетания звуков влияют на активность мозга пользователя, и подбирает продолжение композиции так, чтобы добиться усиления уже существующей активности.

Как утверждают разработчики, такая музыка индивидуальна и обладает способностью вызывать однажды пережитые слушателем ментальные состояния. Прототип был представлен на выставке носимых устройств Wearable Expo 2017; о нём рассказывает пресс-релиз сайта университета Осаки.