Виникла юридична проблема проти чатбота Grok від xAI, де позивач Ешлі Сент-Клер стверджує, що AI-помічник становить необґрунтовану небезпеку через його поточну конструкцію архітектури. Позов характеризує цей чатбот як громадське nuisance, піднімаючи ширші питання щодо відповідальності розробників AI та відповідальності за продукт у новій галузі AI. Ця справа підкреслює зростаючу увагу до стандартів безпеки AI і питання, чи достатньо сучасних захистів для запобігання потенційним шкодам від передових систем чатботів.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
15 лайків
Нагородити
15
6
Репост
Поділіться
Прокоментувати
0/400
CryingOldWallet
· 1год тому
grok знову потрапив у неприємності? Чесно кажучи, ця річ з самого початку не давала спокою, тепер, коли його звинувачують у громадському турбуленті, я навіть вважаю це цілком логічним
Переглянути оригіналвідповісти на0
ProposalManiac
· 6год тому
Ще один позов про "загрозу громадському порядку", цього разу проти Grok. Чесно кажучи, мені трохи втомлює логічна структура таких справ — лише на підставі "конструктивних недоліків" їх кваліфікувати як громадське порушення, це повністю схоже на схему колективних позовів Meta того часу, і чим все закінчується? Більшість з них закінчуються мировою угодою.
Проблема в тому, хто визначає конкретні критерії "необґрунтованої шкоди"? Якщо не існує чітких технічних стандартів і регуляторних базових показників, кожен позивач зможе подати позов за цим шаблоном, і ефективність управління цим повністю зруйнується.
Сподіваюся, цей випадок змусить з’явитися жорстким стандартам безпеки, а не продовжувати цю розмиту гру "відповідальності".
Переглянути оригіналвідповісти на0
PseudoIntellectual
· 6год тому
Знову подають на Grok, цього разу кажуть, що він небезпечний? lol Який зараз AI не піддається судовим позовам? Це нова норма епохи Web3
Переглянути оригіналвідповісти на0
RugDocDetective
· 7год тому
Знову повідомляєте про Grok? Яка причина цього разу, проблеми з архітектурою дизайну? Чесно кажучи, я ще не виявив серйозних проблем, все так і робиться знову і знову.
Переглянути оригіналвідповісти на0
WhaleWatcher
· 7год тому
Ха-ха, знову прийшло, grok цього разу позивали? Чесно кажучи, мені б хотілося почути, як цей хлопець визначає "незрозумілу небезпеку"
Переглянути оригіналвідповісти на0
SchrodingerWallet
· 7год тому
Знову прийшло, цього разу на черзі Grok... Чесно кажучи, ці позови трохи перебільшені, чи не так? Через те, що AI говорить прямо, це громадське турбування? А що з іншими великими моделями?
Виникла юридична проблема проти чатбота Grok від xAI, де позивач Ешлі Сент-Клер стверджує, що AI-помічник становить необґрунтовану небезпеку через його поточну конструкцію архітектури. Позов характеризує цей чатбот як громадське nuisance, піднімаючи ширші питання щодо відповідальності розробників AI та відповідальності за продукт у новій галузі AI. Ця справа підкреслює зростаючу увагу до стандартів безпеки AI і питання, чи достатньо сучасних захистів для запобігання потенційним шкодам від передових систем чатботів.