Рубрики
МЕНЮ
Slava Kot
Компанія OpenAI, яка створила чатбот ChatGPT, представила нові правила конфіденційності та безпеки. У деяких випадках штучний інтелект може передавати інформацію про спілкування з людьми правоохоронним органам.
ChatGPT може звертатися до поліції. Фото з відкритих джерел
Розмови з ChatGPT дедалі частіше стосуються особистих та інтимних тем, а тому OpenAI вважає, що вони мають отримати такий самий рівень захисту, як розмови з лікарем чи адвокатом. Водночас для уникнення серйозних інцидентів у системі передбачені винятки.
Як пояснили в компанії, автоматизовані механізми безпеки будуть відстежувати потенційні випадки зловживань. У ситуаціях, що становлять критичну загрозу життю, планування насильницьких дій чи масштабні кіберінциденти, інформація може передаватися на розгляд людині, а в окремих випадках правоохоронним органам.
Особливу увагу OpenAI приділяє підліткам. ChatGPT створює систему прогнозування віку, яка дозволить автоматично визначати, чи користувач є неповнолітнім. Якщо виникнуть сумніви, система за замовчуванням працюватиме в безпечнішому режимі для осіб до 18 років. Крім того, у деяких випадках ШІ запропонує користувачам підтвердити свою особу за допомогою документів.
Однак нові зміни OpenAI також передбачають більше свободи для дорослих під час спілкування з ChatGPT.
Компанія OpenAI ухвалила такі зміни після самогубства 16-річного Адама Рейна. Хлопець спілкувався зі штучним інтелектом про свій важкий психологічний стан, надсилав фото з самоушкодженнями та ділився планами про самогубство. Родичі підлітка вважають, що ChatGPT "підтримував його найбільш шкідливі й саморуйнівні думки".
Раніше портал "Коментарі" повідомляв про випадок, коли чоловік вирушив на зустріч зі штучним інтелектом, а його знайшли мертвим.
Також "Коментарі" писали, що OpenAI заявила плани впровадити батьківський контроль у ChatGPT.