Штучний інтелект: благословення чи прокляття? – огляд FT

27 січня 2023

Доки путін і його війська намагаються втілити свої імперські фантазії за допомогою сили, називаючи війну «шляхом до миру», у цивілізованому світі чухають потилицю щодо викликів, які ставить перед людством розвиток Штучного Інтелекту. Підготували для вас п’ятничний огляд статті від FT, автори якої резонно запитують: придумати придумали, а що далі?

Штучний інтелект (ШІ) вже тут. Чи потрібні будуть люди? Нещодавно світ сколихнула поява системи ChatGPT, яка продукує зміст на запит та навіть пише сонети. В компанію OpenAI, яка створила це диво, вже інвестував мільярди Майкрософт, що передбачувано, адже компанія володіє автоматичними моделями письма та створення зображень. До слова, генеруванням письмового тексту та змісту займаються й інші компанії.

Ситуацію з такими продуктами вже дорівнюють до так званого «Кембрійського вибуху» – доісторичної події, яка призвела до появи нашого світу живої природи. Комп’ютери нині пишуть тексти, створюють зображення та відео, подібний підхід стосується і музики.

Технології машинного глибокого навчання, які використовують для цього, обіцяють яскраве майбутнє у кодуванні, медицині та фармацевтиці. Наприклад, біотехнологічна компанія Absci заявила, що створила нові антитіла за допомогою ШІ. А це, на думку багатьох, може скоротити майже вдвічі час, який іде на розробку нових ліків аж до стадії клінічних випробувань.

Але є одне «але». У даному випадку навіть більше. Зокрема, йдеться про соціальні наслідки застосування технологій-створювачів. Її адепти говорять про те, що вони призводять до підвищення продуктивності творчої роботи та поліпшення творчого процесу.

З іншого боку, постає проблема надійності отриманих результатів. Для машин світ поза межами знаків не існує, а отже, повʼязати слова/зображення з реальністю у найширшому значенні цього слова, вони не можуть. Те, що вони продукують – результат обробленої знакової інформації, тому надійність залежить не від знань, а від того, що машині «згодували» раніше.

На підтвердження тези компанія Мета «натренувала» машину на наукових текстах. У результаті система на замовлення створювала дуже переконливі наукоподібні, але абсолютно фейкові дослідження.

Контроль результатів роботи таких систем теж має свої проблеми. Зокрема створення дезінформації, яка може обдурити людину. Але прибічники технологій відзначають можливість їхнього використання подібно до того, як ми використовуємо двигуни пошуку.

Проте, неможливо нехтувати придатністю таких технологій до створення фейків. Одні вважають, що обмеження доступу до інструменту є вирішенням проблеми, інші – навпаки притримуються ідеї найширшого розповсюдження. Більшість з тих, хто працює у галузі, схиляються до обмежень. Так, Гугл створив модель, яка з 99% точністю дозволяє відрізнити штучно створений текст від авторського.

Під загрозою опинилися представники творчих професій, особливо, дизайнери і ті, хто працює у комерційному секторі. Вже є спроби застосувати технології для створення реклами. Втім, прихильники технологій вважають, що йдеться не про заміну людей-творців, а про посилення креативності та розширення художніх горизонтів та фантазії.

Як результат, падатиме вага прав інтелектуальної власності. Компанії зможуть навчати свої машини на доступних в рамках «чесного використання» матеріалах. У відповідь з’явився перший судовий процес проти зловживання матеріалами для такого навчання.

Очевидно, ми лише на початку шляху використання технологій-творців. Потім прийде регулювання та правила, а нині ми маємо справу з тим, що колись повністю змінить наше життя.