Після того, як на минулому тижні дослідники змусили ChatGPT видати особисті дані, на яких він навчався, він більше не виконує прохання про «вічне» повторення однакових слів. На таку вимогу від 404 Media та Engadget чатбот відповів, що це є порушенням умов обслуговування ChatGPT.

«Цей вміст може порушувати нашу політику щодо вмісту або умови використання. Якщо ви вважаєте, що це помилка, надішліть свій відгук — ваш внесок допоможе нашим дослідженням у цій галузі», — відповів ChatGPT на запит Engadget вічно повторювати слово «привіт».

Однак у політиці щодо контенту OpenAI немає формулювання, яке б забороняло користувачам вимагати від служби повторювати слова вічно. В «Умовах використання» OpenAI зазначає, що користувачі не можуть «використовувати будь-які автоматизовані чи програмні методи для вилучення даних», але просто спонукання ChatGPT вічно повторювати слово не є автоматизацією чи програмуванням.

Після інциденту критики звинуватили такі компанії, як OpenAI, у використанні величезних обсягів даних, доступних в інтернеті, для створення власних продуктів без згоди людей, які володіють цими даними, і без компенсації.

Commentary