Stable Diffusion 3 Medium 推出後爭議不斷
雖然 Stable Diffusion 3 Medium 順利在 6月12日推出,但卻引起安全性的爭議及版權的限制的問題。
雖然 Stable Diffusion 3 Medium 順利在 6月12日推出,但是其效果卻引起了很大的爭議。在 Reddit 上有人嘗試用 prompt a girl laying on grass
去生成圖片,卻得出了無數斷肢女孩。
到底 Stable Diffusion 3 發生了什麼事?
Stability AI 做了什麼?
在最初 Preview 版公開後到正式公開下載,各用家等了共六個月的時間,難道這半年來 Stability AI 不是在做優化嗎?但今日 Stable Diffusion 3 Medium 出來的效果奇差,也生成了各種奇怪的圖片。
在 SD3 的 hugginface 下載頁面或者可以找到答案,在下載說明頁面中,Stability AI 提到針對特定的嚴重傷害進行外部測試,例如兒童性虐待和性剝削、極端暴力、血腥、露骨色情內容和未經同意的裸體。
這些都是先前版本中未見的措施。雖然該公司聲稱具有平衡的安全性和性能,但人們普遍認為這些安全協議就是導致大量失敗的生成結果的原因。
Civitai 決定暫停 Stable Diffusion 3 的 model
Civitai 因為跟 Stability AI 未能解決版權爭議,為了保護使用者,決定要暫停所有跟 Stable Diffusion 3 相關的 Model 下載,包括 Checkpoint, LoRA 及 ControlNet ,待法律澄清後再做最終決定。未來 Stable Diffusion 3 的提供者可能被收取高額費用或要求移除模型,此決定將對 StableDiffusion 社群構成了重大威脅。
Stable Diffusion 的末日?
Stability AI 在前 CEO Emad Mostaque 離去後,在公開 stable diffusion 3 的決定上作出了致命性的錯誤,令本來是殺手級 Model - Stable Diffusion 3 變成了一個笑話。除了安全性的爭議外,版權的限制亦令不少平台對 Stable Diffusion 3 卻步,一連串的行政失誤會不會令 Stability AI 因此走上絕路?我們拭目以待!