Fact-checked
х

Весь контент iLive перевіряється медичними експертами, щоб забезпечити максимально можливу точність і відповідність фактам.

У нас є строгі правила щодо вибору джерел інформації та ми посилаємося тільки на авторитетні сайти, академічні дослідницькі інститути і, по можливості, доведені медичні дослідження. Зверніть увагу, що цифри в дужках ([1], [2] і т. д.) є інтерактивними посиланнями на такі дослідження.

Якщо ви вважаєте, що який-небудь з наших матеріалів є неточним, застарілим або іншим чином сумнівним, виберіть його і натисніть Ctrl + Enter.

ШІ пророкує результати досліджень у нейробіології краще, ніж експерти

, Медичний редактор
Останній перегляд: 03.07.2025
Опубліковано: 2024-11-28 13:10

Дослідження, проведене вченими з Університетського коледжу Лондона (UCL), показало, що великі мовні моделі (LLM), такі як GPT, можуть передбачати результати нейронаукових досліджень з точністю, що перевищує точність експертів. Робота, опублікована в Nature Human Behaviour, демонструє, як штучний інтелект, навчений на великих текстових наборах даних, може не лише витягувати інформацію, але й виявляти закономірності для прогнозування наукових результатів.


Новий підхід до наукового прогнозування

За словами провідного автора дослідження, доктора Кена Ло (кафедра психології та мовних наук UCL), розвиток генеративного штучного інтелекту, такого як ChatGPT, відкрив величезні можливості для узагальнення та вилучення знань. Однак, замість того, щоб вивчати здатність штучного інтелекту аналізувати минулу інформацію, дослідники вирішили дослідити, чи може штучний інтелект передбачати майбутні експериментальні результати.

«Науковий прогрес часто передбачає метод спроб і помилок, що вимагає часу та ресурсів. Навіть досвідчені дослідники можуть пропустити важливі деталі в літературі. Наша робота показує, що LLM може виявляти закономірності та передбачати результати експериментів», – сказав доктор Ло.


BrainBench: ШІ та експертне тестування

Щоб перевірити можливості LLM, дослідники створили інструмент під назвою BrainBench, який включає пари наукових тез з нейронауки:

  • Один реферат містить фактичний результат дослідження.
  • Другий — це модифікований, але правдоподібний результат, створений експертами.

15 мовних моделей та 171 експерта з неврології було протестовано на здатність розрізняти справжні результати від фальшивих. Результати були вражаючими:

  • Штучний інтелект показав середню точність 81%, тоді як експерти набрали лише 63%.
  • Навіть спеціалісти з найвищою самооцінкою знань досягли лише 66%.

Покращені моделі та перспективи

Вчені також адаптували LLM з відкритим кодом (версію Mistral), навчаючи його на науковій літературі з нейронауки. Отримана модель під назвою BrainGPT продемонструвала ще вищу точність — 86%.

«Наша робота показує, що штучний інтелект може стати невід’ємною частиною процесу експериментального проектування, не лише роблячи роботу швидшою, але й ефективнішою», – сказав професор Бредлі Лав (UCL).


Можливості та виклики

Дослідники припускають, що їхній підхід можна адаптувати до різних наукових дисциплін. Однак результати дослідження порушують важливе питання: чи є сучасні наукові дослідження достатньо інноваційними? Висока точність ШІ в прогнозуванні свідчить про те, що багато наукових висновків узгоджуються з існуючими закономірностями.

«Ми створюємо інструменти штучного інтелекту, які допоможуть вченим розробляти експерименти та прогнозувати можливі результати, пришвидшуючи ітерації та приймаючи більш обґрунтовані рішення», – додав доктор Ло.

Цей прорив у використанні штучного інтелекту обіцяє пришвидшити наукові відкриття та підвищити ефективність досліджень у всьому світі.


Відмова від відповідальності щодо перекладу: Мова оригіналу цієї статті – російська. Для зручності користувачів порталу iLive, які не володіють російською мовою, ця стаття була перекладена поточною мовою, але поки що не перевірена нативним носієм мови (native speaker), який має для цього необхідну кваліфікацію. У зв'язку з цим попереджаємо, що переклад цієї статті може бути некоректним, може містити лексичні, синтаксичні та граматичні помилки.

Портал ua.iliveok.com – інформаційний ресурс. Ми не надаємо медичних консультацій, діагностики або лікування, не займаємося продажем будь-яких товарів або наданням послуг. Будь-яка інформація, що міститься на цьому сайті, не є офертою або запрошенням до будь-яких дій.
Інформація, опублікована на порталі, призначена лише для ознайомлення та не повинна використовуватись без консультації з кваліфікованим спеціалістом. Адміністрація сайту не несе відповідальності за можливі наслідки використання інформації, представленої на цьому ресурсі.
Уважно ознайомтесь з правилами та політикою сайту.
Ви можете зв'язатися з нами, зателефонувавши: +972 555 072 072, написавши: contact@web2health.com або заповнивши форму!

Copyright © 2011 - 2025 ua.iliveok.com. Усі права захищені.