OpenAI знову змінює фокус. Якщо ще кілька років тому компанія говорила про потужність моделей, то тепер — про психічне здоров’я і добробут людей, які користуються цими моделями.
14 жовтня 2025 року OpenAI оголосила про створення Експертної ради з благополуччя та ШІ (Expert Council on Well-Being and AI).
Її місія — допомогти зрозуміти, як взаємодія з ChatGPT, Sora та іншими продуктами впливає на людей, і як зробити цю взаємодію корисною, безпечною й навіть терапевтичною.
Рада не лише радитиме розробникам, а й впливатиме на політику компанії: від того, як моделі спілкуються з користувачами, до того, як формується досвід роботи з AI-сервісами загалом.
Що таке експертна рада з благополуччя та ШІ
Новостворена рада — це група фахівців із психології, етики, соціальних і поведінкових наук. Вони мають різний досвід, але спільну мету: зрозуміти вплив ШІ на людське благополуччя та сформулювати правила, які допоможуть уникати шкоди.
Мета створення
OpenAI офіційно заявила, що рада потрібна для трьох ключових речей:
Оцінювати, як ШІ впливає на психіку, емоційний стан і звички людей.
Розробляти рекомендації, які допоможуть зробити продукти компанії більш людяними — без маніпуляцій, цифрового перевантаження чи надмірного нав’язування.
Сприяти етичному розвитку технологій, аби AI-моделі підтримували людину, а не керували нею.
Інакше кажучи, рада покликана нагадати розробникам: головне не те, щоб AI був розумніший, а щоб людям із ним було добре.
Хто входить до ради
До складу ради увійшли вісім міжнародних експертів — від клінічних психологів до соціальних дослідників.
Серед них:
Девід Бікхем (Harvard Medical School) — фахівець із впливу цифрових технологій на дітей та підлітків.
Трейсі Денніс-Тіварі (Hunter College) — авторка досліджень про тривожність і використання ігор для покращення ментального здоров’я.
Ендрю Пшибилські (Oxford University) — соціальний психолог, який вивчає вплив ігор і соцмереж на самооцінку та мотивацію.
Інші учасники представляють Stanford, Georgia Tech, Northwestern — університети, де тема «цифрового добробуту» вже давно досліджується науково.
Кожен із них має реальний досвід — не теоретичний, а практичний. Тому рада не буде декоративною — її поради враховуватимуть у реальних продуктах.
Чому благополуччя стає критичною темою в епоху ШІ
Проблема перевантаження і «AI-fatigue»
Ми живемо в час, коли чат-боти, віртуальні асистенти й алгоритми оточують нас скрізь.
Вони допомагають, але водночас перевантажують — повідомленнями, підказками, нескінченними «покращеннями».
Людина може відчувати втому, тривогу, залежність від порад штучного інтелекту.
OpenAI визнає цю проблему відкрито. Тепер компанія хоче зрозуміти, як зробити взаємодію з ШІ м’якою, спокійною, корисною, без надлишку інформації та емоційного тиску.
Баланс між допомогою і нав’язуванням
AI може бути чудовим асистентом — або надокучливим порадником.
Коли він починає «думати за користувача», виникає питання автономії.
Саме тому рада фокусуватиметься на межі між підтримкою і контролем.
Ідея проста: штучний інтелект має давати опору, а не забирати свободу. Допомагати приймати рішення — але не приймати їх замість людини.
Як працюватиме експертна рада
Формат діяльності
Рада діятиме як постійний дорадчий орган. Вона не розроблятиме коди чи моделі — її завдання стратегічні.
Вона надаватиме рекомендації для:
команд, які створюють нові функції (наприклад, ChatGPT Pulse або персоналізацію з пам’яттю);
дизайнерів інтерфейсів (UX-фахівців), щоб спілкування з AI не викликало перевтому;
дослідницьких груп, що тестують реакцію користувачів на різні стилі відповідей ChatGPT.
Також рада збиратиме реальні дані про користувацький досвід — спостерігатиме, як люди реагують на поради AI, чи змінюється їхній емоційний стан, і передаватиме результати розробникам.
Потенційні напрями впливу
Мова і тон ChatGPT. Як AI говорить із людьми, які переживають стрес, втрату, тривогу чи вигорання.
Інтерфейс і навантаження. Скільки інформації показувати, як часто нагадувати, як зробити відповіді спокійними, без поспіху.
Вікові обмеження і чутливі теми. Як AI має спілкуватися з дітьми чи підлітками, як реагувати на складні запити.
Етичні сценарії. Як уникати маніпуляцій, фейкових емоцій і нав’язаних рішень.
Що це означає для користувачів ChatGPT
Новий стандарт спілкування
Ми вже звикли, що ChatGPT відповідає швидко й точно. Тепер OpenAI хоче, щоб він відповідав дбайливо.
У майбутніх оновленнях очікуються зміни, які зроблять взаємодію з ботом більш м’якою, уважною і «по-людськи чутливою».
Наприклад:
AI зможе виявляти ознаки тривожності у тексті користувача і змінювати стиль відповіді — спокійніший, підтримувальний.
Можливо, з’являться настройки тону: хтось захоче короткі факти, а хтось — теплу розмову.
Користувачі отримають більше контролю над персоналізацією — що пам’ятає ChatGPT, що ні, як часто надсилає оновлення (через Pulse).
Вплив на повсякденне використання
Для людей, які користуються ChatGPT у роботі, навчанні або терапії, це може змінити досвід кардинально.
Відтепер OpenAI орієнтується не лише на продуктивність, а й на емоційний комфорт.
Це означає, що штучний інтелект повинен не виснажувати, а допомагати відновлювати ресурс.
Ризики і виклики
Жодна добра ідея не обходиться без ризиків — і OpenAI це розуміє.
Чи дослухається компанія до порад?
Рада має дорадчий статус, але реальні зміни залежать від того, наскільки керівництво готове впроваджувати рекомендації.Межа між захистом і патерналізмом.
Важливо не перетворити ChatGPT на «надто обережного асистента», який боїться говорити прямо. Баланс між емпатією і щирістю — складна річ.Прозорість.
Користувачі мають знати, як саме змінюються алгоритми: хто вирішує, що вважати «здоровою взаємодією», і за якими критеріями це вимірюється.Глобальні відмінності.
Поняття «благополуччя» різниться між культурами. Те, що комфортно користувачу в США, може бути неприйнятним в Азії чи Україні.
Як це вплине на галузь штучного інтелекту
OpenAI фактично задає новий тренд: AI має бути не лише корисним, а й добрим.
Компанія піднімає планку для всіх — від Meta до Google. Якщо раніше говорили про швидкість і потужність моделей, то тепер — про психологічний ефект і етичну відповідальність.
Можна очікувати, що інші гравці також створять свої ради чи комітети з етики.
А користувачі, у свою чергу, почнуть цінувати не просто розумність ШІ, а його людяність.
Що далі
Рада вже розпочала роботу — у найближчі місяці OpenAI обіцяє перші звіти.
Ймовірно, зміни ми побачимо поступово: спочатку у тестових версіях ChatGPT, потім у масовому релізі.
Компанія також планує публікувати відкриті рекомендації та ділитися результатами досліджень впливу ШІ на психічне здоров’я — не лише для себе, а й для всієї індустрії.
Висновок
Створення Експертної ради з благополуччя та ШІ — це спроба OpenAI зробити технології більш людяними.
Не лише розумними, швидкими чи креативними — а тими, що справді допомагають людям почуватися краще.
У світі, де ШІ все більше нагадує співрозмовника, важливо, щоб він умів не тільки відповідати, а й слухати.
І, можливо, саме ця рада стане тим кроком, який навчить штучний інтелект турботі.