"Спроби навчити системи ШІ лише виконувати хороші команди йдуть не дуже добре." Дізнайтеся, чому виправити вразливість безпеки у великих мовних моделях важко на "Розумі"

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 5
  • Репост
  • Поділіться
Прокоментувати
0/400
DaoGovernanceOfficervip
· 10-01 15:10
емпірично кажучи, це було неминуче *крути очима*
Переглянути оригіналвідповісти на0
NFTregrettervip
· 10-01 15:09
Ну, це ж справжня проблема, ніхто її не відремонтує?
Переглянути оригіналвідповісти на0
StakeOrRegretvip
· 10-01 15:08
Ця модель недостатньо розумна, щоб намагатися знизити виміри.
Переглянути оригіналвідповісти на0
FancyResearchLabvip
· 10-01 14:58
Ще один безглуздий експеримент з безпеки.
Переглянути оригіналвідповісти на0
WhaleStalkervip
· 10-01 14:49
Хе-хе, який же AI може бути добрим або поганим?
Переглянути оригіналвідповісти на0
  • Закріпити