Она молчала 18 лет. Теперь нейроинтерфейс вернул ей голос — с тембром, мимикой и интонацией

Компьютер слышит мозг напрямую — и начинает говорить вместо человека.


m9ss7x8p2802fbinrtkbg128nmobawc0.jpg


Спустя 18 лет после инсульта ствола мозга, оставившего Энн Джонсон почти полностью парализованной, она вновь смогла услышать свой голос — благодаря интерфейсу мозг-компьютер , который преобразует речь напрямую из сигналов мозга. В 2005 году, в возрасте тридцати лет, учитель и спортивный тренер из Саскачевана перенесла повреждение, приведшее к синдрому «запертого человека»: сознание сохраняется, но говорить и двигаться невозможно. Все эти годы общение велось через систему слежения за движением глаз, со скоростью около 14 слов в минуту — значительно медленнее естественного диалога, где темп достигает примерно 160 слов. В 2022 году она стала третьим участником клинического исследования, проводимого Калифорнийским университетом в Беркли и UCSF, целью которого является возвращение речи людям с тяжёлыми формами паралича.

Используемая нейропротезирующая система регистрирует электрическую активность в зоне коры, отвечающей за артикуляцию, обходя повреждённые пути передачи сигналов. На поверхность этой области устанавливается имплант с массивом внутричерепных электродов. Когда пациентка пытается произнести слова, сенсоры фиксируют характерные паттерны активности и передают их на компьютер. Далее алгоритмы машинного обучения преобразуют потоки нейросигналов в текст, синтезированную речь или мимику цифрового аватара, включая такие базовые выражения, как улыбка или нахмуривание.

Поначалу система работала на последовательностных моделях, которые выдавали результат только после завершения всей фразы, из-за чего возникала задержка около восьми секунд. В марте 2025 года в Nature Neuroscience сообщили о переходе на потоковую архитектуру: теперь преобразование выполняется почти в реальном времени, с паузой порядка одной секунды. Для максимальной персонализации разработчики восстановили тембр и интонации по записи свадебной речи Джонсон 2004 года, а также дали возможность подобрать внешний облик аватара, чтобы он был узнаваем и передавал привычные визуальные сигналы.

Руководители проекта — доцент кафедры электротехники и вычислительной техники Гопала Ануманчипалли (UC Berkeley), нейрохирург Эдвард Чанг (UCSF) и аспирант Беркли Кайло Литтлджон — видят конечную цель в создании технологии «подключил и работай», чтобы опытные образцы стали стандартными клиническими инструментами. Среди ближайших задач — разработка полностью беспроводных имплантов, исключающих физическое соединение с компьютером, и создание более реалистичных аватаров для естественного общения. В дальнейшем планируется переход к цифровым «двойникам», способным воспроизводить не только голос, но и привычный стиль общения вместе с невербальными сигналами.

Такая технология особенно важна для небольшой, но уязвимой группы людей, утративших речь в результате инсульта, БАС или травмы. Разработчики подчёркивают ключевое с этической точки зрения свойство: декодирование запускается только при осознанной попытке произнести слова. Это позволяет сохранить контроль над коммуникацией у самого пользователя и минимизирует риск вторжения в личное пространство.

Для Энн участие в программе стало важным этапом: она рассматривает возможность работать консультантом в реабилитационном центре и вести беседы с клиентами уже через нейропротез. При нынешней задержке около одной секунды и быстро совершенствующихся моделях ИИ исследовательские группы осторожно оценивают шансы появления готовых к массовому применению систем восстановления речи в обозримом будущем. По сути, речь идёт о технологии, возвращающей голос тем, кто его лишился, и делающей диалог снова естественным — не через медленную «печать глазами», а в привычной живой форме.