💥 Gate廣場活動: #PTB创作大赛# 💥
在 Gate廣場發布與 PTB、CandyDrop 第77期或 Launchpool 活動 相關的原創內容,即有機會瓜分 5,000 PTB 獎勵!
CandyDrop 第77期:CandyDrop x PTB 👉 https://www.gate.com/zh/announcements/article/46922
PTB Launchpool 火熱進行中: 👉https://www.gate.com/zh/announcements/article/46934
📅 活動時間:2025年9月10日 12:00 – 9月14日24:00 UTC +8
📌 參與方式:
發布原創內容,主題需與 PTB、CandyDrop 或 Launchpool 相關
內容不少於 80 字
帖子添加話題: #PTB创作大赛#
附上 CandyDrop 或 Launchpool 參與截圖
🏆 獎勵設置:
🥇 一等獎(1名):2,000 PTB
🥈 二等獎(3名):800 PTB/人
🥉 三等獎(2名):300 PTB/人
📄 注意事項:
內容必須原創,禁止抄襲或刷量
獲獎者需完成 Gate 廣場身分認證
活動最終解釋權歸 Gate 所有
OpenAI與Anthropic互測模型幻覺與安全性等問題
金十數據8月28日訊,OpenAI和Anthropic近日互相對對方的模型進行了評估,以期發現自身測試中可能遺漏的問題。兩家公司周三在各自的博客上表示,今年夏天,它們針對對方公開可用的AI模型進行了安全性測試,並檢驗了模型是否存在幻覺傾向,以及所謂“失準”(misalignment)的問題,即模型未按開發者預期運行。這些評估是在OpenAI推出GPT-5,以及Anthropic在8月初發布Opus 4.1之前完成的。Anthropic由前OpenAI員工創立。