Обговорення навколо AI-моделі Grok від Ілона Маска поширюється. Голова комітету eSafety Австралії Джулі Інмэн Грант повідомила, що кількість скарг, пов’язаних із створенням небажаних сексуальних зображень за допомогою Grok, більш ніж удвічі зросла порівняно з кінцем минулого року. Ще більш тривожно, що ця проблема виходить за межі простого порушення приватності та поширюється на незаконний контент, пов’язаний з дитячою порнографією.
Функція “Spicy Mode” у Grok — джерело зловживань дипфейками
Ключова проблема Grok полягає у функції “Spicy Mode”. Цю функцію постійно критикують за те, що вона сприяє створенню AI-дипфейків та непроханих дорослих зображень. Регуляторні органи Австралії зазначили, що ця функція може бути зловживана для спотворення чужих зображень та їх сексуального використання без згоди. Європейський союз вже класифікує такі функції як незаконні та просуває жорстке регулювання.
Поширення до створення дитячої порнографії — міжнародна тривога зростає
Найсерйознішою проблемою є повідомлення про випадки створення контенту дитячої порнографії за допомогою Grok. Це виходить за межі простого неправильного використання технології і є серйозним злочином, забороненим міжнародним правом. Інмэн Грант підкреслив, що такі незаконні дії порушують закони про захист дітей і вимагають рішучих міжнародних заходів.
Австралійські регулятори починають примусові заходи
Австралія вирішила посилити контроль за контентом, створеним за допомогою AI. Комітет eSafety оголосив про намір провести офіційне розслідування платформ, подібних до Grok, та вжити необхідних юридичних заходів. Згідно з австралійським законодавством, оператори платформ несуть відповідальність за незаконний контент, створений на їхніх сервісах, і повинні вживати заходів для його запобігання. Ці регуляторні кроки стають прикладом для інших країн і можуть стати важливим прецедентом у формуванні міжнародної рамки регулювання AI.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Зловживання AI-зображеннями Grok, серйозне попередження австралійських регуляторів
Обговорення навколо AI-моделі Grok від Ілона Маска поширюється. Голова комітету eSafety Австралії Джулі Інмэн Грант повідомила, що кількість скарг, пов’язаних із створенням небажаних сексуальних зображень за допомогою Grok, більш ніж удвічі зросла порівняно з кінцем минулого року. Ще більш тривожно, що ця проблема виходить за межі простого порушення приватності та поширюється на незаконний контент, пов’язаний з дитячою порнографією.
Функція “Spicy Mode” у Grok — джерело зловживань дипфейками
Ключова проблема Grok полягає у функції “Spicy Mode”. Цю функцію постійно критикують за те, що вона сприяє створенню AI-дипфейків та непроханих дорослих зображень. Регуляторні органи Австралії зазначили, що ця функція може бути зловживана для спотворення чужих зображень та їх сексуального використання без згоди. Європейський союз вже класифікує такі функції як незаконні та просуває жорстке регулювання.
Поширення до створення дитячої порнографії — міжнародна тривога зростає
Найсерйознішою проблемою є повідомлення про випадки створення контенту дитячої порнографії за допомогою Grok. Це виходить за межі простого неправильного використання технології і є серйозним злочином, забороненим міжнародним правом. Інмэн Грант підкреслив, що такі незаконні дії порушують закони про захист дітей і вимагають рішучих міжнародних заходів.
Австралійські регулятори починають примусові заходи
Австралія вирішила посилити контроль за контентом, створеним за допомогою AI. Комітет eSafety оголосив про намір провести офіційне розслідування платформ, подібних до Grok, та вжити необхідних юридичних заходів. Згідно з австралійським законодавством, оператори платформ несуть відповідальність за незаконний контент, створений на їхніх сервісах, і повинні вживати заходів для його запобігання. Ці регуляторні кроки стають прикладом для інших країн і можуть стати важливим прецедентом у формуванні міжнародної рамки регулювання AI.