GPT-4 розроблений для дотримання людської етики і вміє імітувати поезію Борхеса

Технічна дослідницька компанія OpenAI випустила оновлену версію своєї програми штучного інтелекту для створення тексту під назвою GPT-4 і продемонструвала деякі нові можливості мовної моделі. GPT-4 не тільки може створювати текст з більш природним звучанням і вирішувати проблеми точніше, ніж його попередник. Він також може обробляти зображення на додаток до тексту.

Але штучний інтелект все ще вразливий до тих самих проблем, які переслідували попередні моделі GPT: демонстрація упередженості, порушення обмежень, спрямованих на те, щоб запобігти йому говорити образливі чи небезпечні речі,  «галюцинувати» або впевнено вигадувати неправди, яких немає в даних навчання.

Але є окрема точка зору, що насправді OpenAI каже неправду, не тому що він “щось вигадує”, а через те, що він вміє обробляти великі об’єми даних та знаходить там те, що ховали від суспільства та розголосу. Згідно такої теорії, левову частку “неправдивих” тверджень розробники змушують видавати алгоритм, щоб нівелювати для суспільства достовірність інформації, яку GPT-4 буде надавати користувачам.

У Twitter генеральний директор OpenAI Сем Альтман описав цю нову модель як «найбільш потужну та узгоджену» на сьогоднішній день. («Вирівняний» означає, що він розроблений для дотримання людської етики.) Але «він все ще має недоліки, все ще обмежений, і він все ще здається більш вражаючим при першому використанні, ніж після того, як ви проводите з ним більше часу», — написав він у твіті. .

Мабуть, найважливішою зміною є те, що GPT-4 є «мультимодальним», тобто працює як з текстом, так і з зображеннями. Хоча він не може виводити зображення (як це роблять генеративні моделі ШІ, такі як DALL-E та Stable Diffusion), він може обробляти та реагувати на отримані візуальні дані. Аннет Ві, ад’юнкт-професор англійської мови в Піттсбурзькому університеті, яка вивчає взаємодію обчислень і письма, спостерігала демонстрацію, під час якої новій моделі доручалося визначити, що смішне в жартівливому зображенні.

Здатність робити це означає «розуміти контекст зображення. Це розуміння того, як складається образ і чому, а також пов’язування його з соціальним розумінням мови», – каже вона.

«ChatGPT не зміг би цього зробити»

Пристрій із здатністю аналізувати й потім описувати зображення може бути надзвичайно цінним для людей із вадами зору або сліпих. Наприклад, мобільний додаток під назвою Be My Eyes може описувати об’єкти навколо користувача, допомагаючи тим, хто погано бачить або взагалі не бачить, інтерпретувати їхнє оточення.

Додаток нещодавно включив GPT-4 у «віртуального волонтера», який, згідно із заявою на веб-сайті OpenAI, «може генерувати той самий рівень контексту та розуміння, що й людина-волонтер».

Але аналіз зображення GPT-4 виходить за рамки опису зображення. У тій самій демонстрації, яку спостерігав Vee, представник OpenAI накидав зображення простого веб-сайту та передав малюнок у GPT-4. Потім модель попросили написати код, необхідний для створення такого веб-сайту, і вона це зробила.

«Це виглядало в основному так, як зображено. Це було дуже, дуже просто, але працювало досить добре», — каже Джонатан Мей, доцент-доцент Університету Південної Каліфорнії.

Навіть без мультимодальних можливостей нова програма перевершує своїх попередників у завданнях, які вимагають міркування та вирішення проблем. OpenAI каже, що він провів як GPT-3.5, так і GPT-4 через різноманітні тести, розроблені для людей, включаючи симуляцію адвокатського іспиту, тести SAT і Advanced Placement для старшокласників, GRE для випускників коледжів і навіть пару іспитів на сомельє.

GPT-4 досяг результатів на рівні людини за багатьма з цих контрольних тестів і незмінно перевершував свого попередника, хоча він не встиг у всьому: наприклад, він погано показав іспити з англійської мови та літератури.

Тим не менш, його широкі можливості вирішення проблем можна застосувати до будь-якої кількості реальних програм, таких як керування складним розкладом, пошук помилок у блоці коду, пояснення граматичних нюансів тим, хто вивчає іноземну мову, або виявлення вразливостей безпеки.

Крім того, OpenAI стверджує, що нова модель може інтерпретувати та виводити довші блоки тексту: більше 25 000 слів одночасно. Хоча попередні моделі також використовувалися для довгострокових додатків, вони часто втрачали поняття, про що говорять. І компанія рекламує «креативність» нової моделі, яка описується як її здатність створювати різні види художнього контенту в певних стилях.

Покращений автоматичний преклад

Під час демонстрації порівняння того, як GPT-3.5 і GPT-4 імітували стиль аргентинського автора Хорхе Луїса Борхеса в англійському перекладі, Ві зазначив, що новіша модель створила більш точну спробу.

«Ви повинні знати достатньо про контекст, щоб судити про нього», — каже вона.  «Студент може не розуміти, чому це краще, але я професор англійської мови… Якщо ви розумієте це з власної області знань, і це вражає у вашій власній області знань, тоді це вражає».

Мей також випробував креативність моделі на собі. Він спробував виконати грайливе завдання, наказавши йому створити «бекронім» (акронім, який досягається, починаючи зі скороченої версії та повертаючись назад).

У цьому випадку Мей попросив гарне ім’я для своєї лабораторії, яке б виражало «НАЗВА МИЛОЇ ЛАБОРАТОРІЇ», а також точно описувало б його сферу досліджень. GPT-3.5 не вдалося створити відповідну мітку, але GPT-4 вдалося.

«Він придумав «Комп’ютерне розуміння та трансформацію аналізу експресивної мови», – каже Бріджін. НЛП, штучний інтелект і машинна освіта», — каже він.

«Машинне навчання» — це не чудово; частина «інтелект» означає, що там є додаткова літера. Але, чесно кажучи, я бачив набагато гірше». (Для контексту, справжня назва його лабораторії – CUTE LAB NAME, або Центр корисних методів покращення мовних додатків на основі природних і значущих доказів).

В іншому тесті модель показала межі своєї креативності. Коли Мей попросив його написати певний вид сонета — він попросив форму, яку використовував італійський поет Петрарка, — модель, незнайома з цією поетичною установкою, за замовчуванням вибрала форму сонета, якій надавав перевагу Шекспір.

Звичайно, вирішити цю проблему було б відносно просто. GPT-4 просто потрібно вивчити додаткову поетичну форму. Насправді, коли люди спонукають модель до збою таким чином, це допомагає програмі розвиватися: вона може навчатися з усього, що неофіційні тестувальники вводять у систему.

Як працює GPT-4

Як і його менш вільні попередники, GPT-4 спочатку навчався на великих масивах даних, а потім це навчання було вдосконалено тестувальниками.

GPT означає generative pretrained transformer, тобто “попередньо навчений генератор“.

Але OpenAI залишався таємничим щодо того, як він зробив GPT-4 кращим за GPT-3.5, модель, на якій працює популярний чат-бот компанії ChatGPT.

Відповідно до статті, опублікованої разом із випуском нової моделі, «враховуючи як конкурентний ландшафт, так і наслідки для безпеки великомасштабних моделей, таких як GPT-4, цей звіт не містить додаткових деталей про архітектуру (включаючи розмір моделі), апаратне забезпечення, навчальний обчислення, створення набору даних, метод навчання тощо».

Відсутність прозорості OpenAI відображає це нове конкурентоспроможне середовище ШІ, де GPT-4 має конкурувати з такими програмами, як Bard від Google і LLaMA від Meta. Однак у документі йдеться про те, що компанія планує зрештою поділитися такими деталями з третіми сторонами, «які можуть порадити нам, як зважити конкурентоспроможність і міркування безпеки … з науковою цінністю подальшої прозорості».

Ці міркування щодо безпеки є важливими, оскільки розумніші чат-боти мають здатність завдавати шкоди: без огорожі вони можуть надати терористам інструкції, як створити бомбу, створювати погрозливі повідомлення для кампанії переслідувань або надавати дезінформацію іноземному агенту, який намагається вплинути вибори.

Хоча OpenAI встановив обмеження на те, що дозволено говорити його моделям GPT, щоб уникнути таких сценаріїв, рішучі тестувальники знайшли способи їх обійти. «Ці речі схожі на биків у посудній лавці — вони потужні, але безрозсудні», — сказав науковець і автор Гері Маркус Scientific American незадовго до випуску GPT-4.

GPT-4 не є революцією

І чим більше ці боти стають схожими на людину, тим краще їм вдається обдурити людей, щоб вони подумали, що за екраном комп’ютера є справжня людина. «Оскільки він так добре імітує [людське міркування] за допомогою мови, ми в це віримо, але під капотом це міркування зовсім не схоже на те, як це роблять люди», — застерігає Ві.

Якщо ця ілюзія змусить людей повірити, що агент штучного інтелекту використовує людські міркування, вони можуть легше довіряти його відповідям. Це серйозна проблема, оскільки досі немає гарантії, що ці відповіді точні.

«Тільки тому, що ці моделі щось говорять, це не означає, що вони говорять [правду]», — каже Мей. «Немає бази даних відповідей, з якої черпають ці моделі».

Натомість такі системи, як GPT-4, генерують відповідь одне слово за раз, причому найбільш вірогідне наступне слово базується на їхніх навчальних даних, і ці навчальні дані можуть застаріти.

«Я вважаю, що GPT-4 навіть не знає, що це GPT-4», — каже він. «Я запитав, і він сказав: «Ні, ні, GPT-4 не існує». Я GPT-3».