Вчені з Кембриджського університету у Великій Британії та Єврейського університету в Єрусалимі вирішили кинути виклик сучасній технології, запропонувавши великій мовній моделі ChatGPT давню математичну загадку. Це завдання, відоме як “подвоєння площі квадрата”, вперше згадав давньогрецький філософ Платон близько 385 року до нашої ери. Він описав, як Сократ, один із найвизначніших мислителів античності та Платонів учитель, ставив це питання своєму учневі. Суть задачі полягає в тому, щоб подвоїти площу квадрата, не просто подвоївши довжину його сторін, що є поширеною помилкою, а шляхом використання діагоналі вихідного квадрата як сторони нового. Це завдання стало віковою суперечкою серед науковців щодо того, чи є математичні здібності вродженими, чи вони набуваються з досвідом та розкриваються через логічне мислення.
Випробування для штучного інтелекту
Науковці обрали цю головоломку для ChatGPT саме через її неочевидне розв’язання. Оскільки великі мовні моделі (LLM), такі як ChatGPT, переважно навчаються на текстових даних, а не на візуальних зображеннях, дослідники припустили, що ймовірність існування готової відповіді на цю задачу в навчальних даних ChatGPT була вкрай низькою. Якщо б модель самостійно дійшла до правильного розв’язку, це могло б стати доказом того, що математичні здібності можуть бути набутими, а не лише вродженими.
Спочатку ChatGPT успішно справився із завданням. Однак, справжнє відкриття чекало попереду, коли команда вирішила ускладнити експеримент. Вони попросили чатбот подвоїти площу прямокутника, використовуючи схожий підхід. На подив вчених, штучний інтелект відповів, що діагональ прямокутника не може бути використана для подвоєння його розміру, і тому геометричного розв’язку не існує.
Несподівана “навчаність” ШІ
Професор Надав Марко, запрошений дослідник Кембриджського університету з Єврейського університету в Єрусалимі – одного з провідних науково-дослідних центрів Ізраїлю – та професор математичної освіти Андреас Стіліанідес знали, що геометричний розв’язок для прямокутника все ж існує. Марко зазначив, що шанси наявності такої хибної інформації в тренувальних даних ChatGPT були “зникаюче малими”. Це вказує на те, що чатбот імпровізував свої відповіді, ґрунтуючись на попередньому обговоренні проблеми подвоєння квадрата, що є чітким свідченням згенерованого, а не вродженого навчання.
“Коли ми стикаємося з новою проблемою, наш інстинкт часто підказує спробувати щось, ґрунтуючись на нашому минулому досвіді”, – пояснив Марко. “У нашому експерименті ChatGPT, схоже, робив щось подібне. Як учень чи вчений, він, здавалося, висував власні гіпотези та рішення”.
Штучний інтелект у “зоні найближчого розвитку”
Це дослідження проливає нове світло на питання про те, як штучний інтелект “міркує” та “мислить”. Оскільки ChatGPT, здавалося, імпровізував відповіді та навіть робив помилки, подібно до учня Сократа, Марко та Стіліанідес припустили, що модель могла використовувати концепцію, відому в освіті як “зона найближчого розвитку” (ЗНР). Це поняття, розроблене психологом Левом Виготським, описує простір між тим, що індивід знає і може зробити самостійно, та тим, що він може освоїти за допомогою більш досвідченої особи. Дослідники вважають, що ChatGPT міг спонтанно застосовувати подібну рамку, розв’язуючи нові проблеми, які не були представлені в його навчальних даних, завдяки правильним запитам.
Це яскравий приклад давно обговорюваної проблеми “чорної скриньки” в ШІ, де програмування або “міркування”, що призводить до певного висновку, залишаються невидимими та невідстежуваними. Однак дослідники наголошують, що їхня робота демонструє можливості для вдосконалення штучного інтелекту. “На відміну від доказів, знайдених у поважних підручниках, студенти не можуть припускати, що докази, згенеровані ChatGPT, є правильними”, — сказав Стіліанідес. “Розуміння та оцінка доказів, створених ШІ, стають основними навичками, які необхідно інтегрувати в навчальні програми з математики”.
Команда підкреслює важливість так званого “інженерінгу запитів” – вміння формулювати запити до ШІ таким чином, щоб спонукати його до спільних пошуків та досліджень, а не просто до видачі готової відповіді. Незважаючи на те, що дослідники закликають не робити надто поспішних висновків про те, що великі мовні моделі “думають” так само, як люди, Марко все ж назвав поведінку ChatGPT “схожою на учня”.
Науковці бачать широкі перспективи для майбутніх досліджень. Новіші моделі можна тестувати на ширшому спектрі математичних задач, а також є потенціал для поєднання ChatGPT з динамічними геометричними системами або програмами для доведення теорем. Це дозволить створити багатші цифрові середовища, що підтримуватимуть інтуїтивне дослідження, наприклад, у такий спосіб, як вчителі та учні використовують ШІ для спільної роботи в класах.
