Автор фото, University of California, Davis

Женщина не двигалась – только ее грудная клетка ритмично поднималась и опускалась во время дыхания. Ее глаза были сосредоточенно устремлены вперед, а рука сжата в кулак. На экране перед ней появлялись слова, медленно складываясь в целые предложения. Предложения, которые она не могла произнести вслух.

52-Летняя женщина была парализована после инсульта 19 лет назад, и как следствие она была неспособна четко говорить. Однако теперь ее внутренний монолог представал перед ее глазами.

Женщине, которую идентифицировали только как участницу T16, имплантировали крошечный массив электродов в переднюю часть мозга. Теперь компьютер, управляемый формой искусственного интеллекта, расшифровывал сигналы от ее нейронов, когда она представляла, что произносит слова, и система переводила его в текст на экране.

Она участвовала в исследовании в Стэнфордском университете в Калифорнии (США) вместе с тремя пациентами с нейродегенеративным заболеванием боковой амиотрофический склероз (БАС), целью которого было проверить методику, способную переводить мысли в текст в режиме реального времени.

Это — самое ближайшее, к чему на этот момент подошли ученые в «чтении мнений».

Исследователи представили свои результаты в августе 2025 года. Через несколько месяцев ученые в Японии продемонстрировали метод «транскрибирования мнений», способный создавать детальные и точные описания того, что человек видит или представляет в своем сознании. Он сочетал три разных инструмента искусственного интеллекта с неинвазивным сканированием мозга для перевода мозговой активности человека.

Оба исследования стали последними в серии прорывов, которые дают нейробиологам новую возможность заглянуть во внутреннюю работу человеческого мозга и открывают возможности помогать людям, которые не могут общаться другими способами. В перспективе это может радикально изменить способ нашего взаимодействия с окружающим миром и даже друг с другом.

«В ближайшие несколько лет мы увидим коммерциализацию этих технологий и их широкое внедрение», — говорит Майтрей Вайрагкар, нейроинженер, разрабатывающий нейрокомпьютерные интерфейсы в лаборатории нейропротезирования Калифорнийского университета в Дэвисе (США).

Несколько компаний, включая Neuralink Илона Маска, уже стремятся создать коммерческие мозговые чипы, которые выведут эту технологию из лабораторий в реальный мир.

«Это очень увлекательно», — говорит Вайрагкар.

Автор фото, University of California, Davis

Ученые работают над устройствами, способными непосредственно взаимодействовать с человеческим мозгом – известными как нейрокомпьютерные интерфейсы (НКИ) – уже очень долго.

В 1969 году американский нейробиолог Эбергард Фец продемонстрировал, что обезьяны могут научиться двигать стрелку прибора посредством активности одного нейрона в мозгу, если получают за это пищевое вознаграждение.

В еще более необычном эксперименте того же периода испанский ученый Хосе Дельгадо дистанционно стимулировал мозг разъяренного быка, заставив его остановиться посреди атаки.

В течение десятилетий НКИ могли расшифровывать сигналы мозга, связанные с движением, чтобы пользователи могли управлять протезированной конечностью или курсором на экране. Но интерфейсы, переводящие вещательные сигналы или другие сложные мысли, развивались медленнее.

«Многие ранние исследования проводились на приматах… И, очевидно, с обезьянами невозможно изучать речь», — говорит Вайрагкар.

В последние годы эта отрасль достигла поразительного прогресса в расшифровке речи людей с нарушениями коммуникации – например, пациентов с БАС, что приводит к параличу или синдрому «замкнутого человека».

Например, исследователи Стэнфордского университета в 2021 году сообщили об успешном исследовании, которое позволило мужчине с квадриплегией (параличом всех четырех конечностей) создавать предложения, представляя, что он рисует буквы в воздухе рукой. С помощью этого метода он мог писать 18 слов в минуту.

Естественная человеческая речь составляет примерно 150 слов в минуту, поэтому следующим этапом стало расшифровка слов по нейронной активности, связанной непосредственно с речью.

В 2024 году лаборатория Вайрагкар испытала метод, который переводил попытки речи 45-летнего мужчины из БАС непосредственно в текст на компьютерном экране. Достигнув примерно 32 слов в минуту с точностью 97,5%, это стало первой демонстрацией того, как языковые НКИ могут помочь в повседневном общении, говорит Вайрагкар.

Эти методы основываются на крошечных «массивах» микроэлектродов, хирургически имплантирующих в поверхность мозга. Массивы записывают закономерности нейронной активности с того участка мозга, где они расположены, а сигналы преобразуются в содержание с помощью компьютерного алгоритма.

Именно здесь мощность машинного обучения – типа искусственного интеллекта – стала решающей. Эти методы отлично распознают закономерности в огромных размерах разнородных данных. В случае расшифровки речи алгоритмы машинного обучения учат распознавать шаблоны нейронной активности, связанные с разными фонемами – наименьшими строительными элементами речи.

Исследователи сравнивают это с обработкой, которая происходит в умных ассистентах, таких как Amazon Alexa. Но вместо интерпретации звуков искусственный интеллект интерпретирует нейронные сигналы.

Разблокировать внутреннюю речь

Несмотря на впечатляющие результаты последних попыток расшифровать речь, оставались определенные трудности. Обычно пациентам нужно было пытаться произнести слова, которые они хотели передать даже если они физически не могли этого сделать, чтобы технология нейрокомпьютерного интерфейса смогла точно их перевести. Это связано с тем, что электроды обычно размещают в моторной коре – участке мозга, ответственном за движения мышц.

Однако попытки говорить нуждаются в усилиях, что делает процесс коммуникации медленным и изнурительным. В своем последнем исследовании ученые из Стэнфордского университета хотели проверить, есть ли более простой способ — можно ли создать метод, который в режиме реального времени будет фиксировать «внутреннюю речь» наряду с «пробами речи».

«Мы просили их сосчитать количество фигур определенного цвета на экране, потому что предполагали, что в такой задаче человек будет буквально считать числа в своей голове», — говорит Фрэнк Уиллетт, соруководитель лаборатории трансляционного нейропротезирования Стенфордского университета в статье.

«И именно это мы увидели. Мы увидели следы этих числовых слов, проходивших через моторную кору, которые смогли зафиксировать», — добавляет он. Ответ на вопрос, может ли эта технология распознавать внутреннюю речь, оказался осторожно положительным. В задаче, связанной с представлением предложения, исследователи достигли точности до 74% в режиме реального времени.

В задачах, стимулирующих спонтанную внутреннюю речь, точность была ниже, но все же превышала случайный уровень. Однако в более открытых условиях, когда участникам давали задание типа «подумайте о своей любимой цитате из фильма», расшифрованный язык в большинстве своем был бессодержательным.

«С помощью современных технологий мы пока не можем идеально точно получить полностью нефильтрованную внутреннюю речь человека, — говорит Уиллетт. — Но мы смогли достаточно четко зафиксировать его следы в разных задачах».

Исследование также помогло лучше понять, как работает внутренняя речь в мозге. Оно установило, что нейронные паттерны внутренней речи тесно связаны с паттернами попыток речи в моторной коре, но сигналы при этом слабее.

Это согласуется с предыдущими нейровизуализационными и электрофизиологическими исследованиями, которые показали, что внутренняя речь привлекает сеть мозга, подобную той, которая используется во время реальной речи.

За пределами слов

Лаборатория Вайрагкар в Калифорнийском университете в Дэвисе достигла прорыва в 2025 году, когда продемонстрировала, что может расшифровывать не только слова, но и невербальные компоненты речи — интонацию, высоту тона. Фактически это позволило пациентам передавать эмоциональность и ударение, а не только текст.

«Человеческая речь — это гораздо больше, чем текст на экране, — говорит Вайрагкар. — Большая часть нашего общения состоит в том, как мы говорим, как выражаем себя; то, что мы говорим, имеет разные значения в зависимости от контекста».

Вайрагкар и ее коллеги показали, что их прототип может воспроизводить речь вслух в тот момент, когда пациент с БАС с тяжелым нарушением моторики речи пытается говорить.

Важно, что участник мог изменять интонацию, чтобы передать содержание.

«Наш участник мог задавать вопросы с повышением тона в конце предложения и изменять высоту голоса во время речи, — говорит Вайрагкар. — Мы продемонстрировали это в простой задаче, когда он напевал мелодии».

Результаты были неидеальными, но 60% слов тестировщики сочли понятными. Хотя это все еще уступает лучшим технологиям «мозг-текст», эксперимент показал, что может стать возможным в ближайшее время.

И Вайрагкар, и Виллетт считают, что дальнейший прогресс неизбежен. Один из путей улучшения – просто увеличить количество микроэлектродов, размещенных в мозгу.

«В нашем мозгу есть миллиарды нейронов и триллионы связей», — говорит Вайрагкар.

В ее последнем исследовании анализировали только 256 из них, говорит ученая.

«Новейшие устройства и лучшие технологии смогут охватывать больше нейронов, получать более богатую информацию и добиваться понятной речи в реальном времени», — добавляет она.

Виллетт особенно заинтересован в дальнейшем изучении внутренней речи и планирует исследовать, как другие участки мозга, кроме моторной коры, могут быть у него вовлечены.

«Одна из интересующих нас областей — это верхняя височная извилина», — говорит он, имея в виду участок мозга, связанный со слуховой обработкой, которая также может играть роль во внутренней речи, например, в слуховых представлениях того, что вы слышите в своей голове.

Выход за пределы моторной коры может быть важным и для помощи людям с поражениями этого участка мозга – например, жертвам инсульта, у которых моторная кора повреждена, но которые все еще могут понимать речь.

Обнаружение других участков мозга, вовлеченных во внутреннюю речь, однажды может помочь и этим людям общаться, говорит Уиллетт.

Увидеть – значит поверить

Пока исследователи нейрокомпьютерных интерфейсов сосредоточены на практическом применении технологии для помощи пациентам, другие области также достигают прогресса в расшифровке сканов мозга и более глубоком понимании его работы.

Одно из направлений состоит в воспроизведении изображений, которые видел человек, только путем анализа сканирования мозга с помощью искусственного интеллекта.

Это работает так: участникам показывают изображения, пока их мозговую активность записывают с помощью функциональной магнитно-резонансной томографии (фМРТ) – метода, измеряющего активность мозга, фиксируя изменения кровотока в разных его участках. Затем нейронные данные расшифровывают алгоритм и передают их генератору изображений на основе ИИ, который пытается воспроизвести то, что видел участник. Исследователи пытаются решить эту задачу десятилетиями, но бум генеративного ИИ последних лет дал отрасли мощный импульс. Новейшие генераторы изображений, такие как Stable Diffusion, существенно повысили качество создаваемых изображений.

Ю Такаги, доцент Нагойского технологического института в Японии, опубликовал в 2023 году исследование по этому методу с использованием алгоритма Stable Diffusion.

Алгоритм обучали на онлайн-наборе данных, созданном Университетом Миннесоты, состоявшим из сканов мозга четырех участников при просмотре каждым из них 10 000 фотографий. Во многих случаях ИИ смог воспроизвести приемлемое приближение к оригинальному изображению – хотя полностью «завис» на миске с салатом.

Ныне эта отрасль быстро развивается. Исследование, опубликованное в прошлом году израильскими учеными, позволило воспроизвести еще более точные изображения.

Подобные работы помогли лучше понять, как мозг обрабатывает визуальную информацию, говорит Такаги. Оказалось, что решающую роль играют два разных участка мозга.

Затылочная часть, расположенная в задней части мозга, кодирует «низкоуровневые» визуальные характеристики изображения — такие как расположение, перспектива и цвет. Вместо этого височная частица, расположенная позади висков, кодирует «высокоуровневые» концептуальные элементы, связанные с классификацией того, что именно представляет собой объект.

Звуки музыки

Продолжаются попытки воспроизводить слуховые переживания. В 2025 году Такаги опубликовал исследование, в котором использовал проприетарный алгоритм Google, чтобы попытаться воспроизвести аудио из сканов фМРТ, сделанных при прослушивании участниками музыкальных произведений.

По словам Такаги, это сложнее, чем реконструировать визуальные стимулы, поскольку музыка постоянно меняется, в то время как фМРТ-сканер выполняет снимки только с интервалом в одну секунду.

«Качество реконструкции ниже по сравнению с воспроизведением изображений, — говорит он. — Но нам все же удалось воспроизвести характер музыки и ее базовую категорию».

Эта область углубила наше понимание нейронных основ восприятия музыки.

«Нас в этом исследовании удивило то, что восприятие музыки в мозге отличается от восприятия изображений», – говорит Такаги.

«Для изображений высокоуровневая и низкоуровневая информация имеют отдельные локализации в мозге. Для музыки мы обнаружили, что семантика и низкоуровневая информация не разделены», — объясняет он.

Такаги увлечен потенциальными применениями этих подходов. По его словам, можно было бы воспроизводить слуховые и зрительные галлюцинации психиатрических пациентов, например людей с шизофренией, чтобы лучше понять их состояние.

Эти методы можно использовать для реконструкции того, как воспринимают мир животные, или даже для воссоздания снов.

«Многие люди спрашивают об этом», — смеется Такаги.

Он говорит, что хотел бы однажды воспроизводить сны, но сейчас это очень сложно. Некоторые исследования даже поднимают вопросы прямой коммуникации «мозг-мозг», в частности между несколькими людьми одновременно, хотя этические последствия и вопросы прав человека, связанные с такими устройствами, еще предстоит полностью осмыслить.

Тем, кто надеется, что вскоре станет возможным стимулировать зрительные или слуховые переживания в мозге ради развлечений, Такаги советует запастись терпением. Хотя теоретически это возможно, из-за технических ограничений этого, вероятно, не произойдет еще в течение 10–20 лет.