中國新興科技公司 DeepSeek 的 R1 大型語言模型自推出以來,以其低成本、快速和高性能的優勢吸引了廣泛的關注。然而,隱私專家警示企業在採用 DeepSeek 的最新 AI 模型前應謹慎行事,因為其隱私政策可能存在威脅使用者資料安全的風險。
作為一家成立於 2023 年的 AI 新創公司,DeepSeek 由梁文烽創立,他同時也是中國量化對沖基金高飛者的創辦人之一。DeepSeek 的 R1 模型的崛起正值中國科技公司面對美國對其數據隱私和國家安全問題的嚴密審查之際。在此背景下,DeepSeek 的隱私政策引發了業界的廣泛討論。
DeepSeek 的隱私政策與數據分享
DeepSeek 的隱私政策顯示,使用者的數據會儲存在中國,而且可能會與廣告或分析合作夥伴共享這些資訊。具體來說,DeepSeek 會收集個人資訊,包括使用服務過程中的資料、支付資訊,以及設備數據、IP 地址、使用模式等。這些行為引起了對中美之間貿易緊張局勢中數據安全性的顧慮。
與其他科技巨頭如 Google 和 OpenAI 相比,DeepSeek 在數據政策上更為靈活。例如,Google 雖然也大量使用使用者數據進行廣告導向,但其政策明確表示不會使用 Gemini 會話數據。而 DeepSeek 的隱私政策卻指出會在特定條件下與第三方分享數據。
市場反響與未來展望
儘管存在這些風險,DeepSeek 的低成本和高效能讓它成為一些科技公司考慮採用的選項,特別是在美國和歐洲的伺服器環境中運行或本地安裝時所展現出的潛力。這樣的發布方式可以降低隱私洩漏的風險。然而,對於使用其 API、聊天機器人應用和網絡版本的擔憂依然存在。
一些公司如 Perplexity 依然選擇採用 R1 模型,對此 Perplexity 執行長 Aravind Srinivas 在社交媒體上表示,他們的 DeepSeek 使用提供仰賴的數據中心都位於美國和歐洲,以保證使用者數據安全。這說明業界在追求創新與管理隱私風險之間並不是非此即彼。
對數據隱私的挑戰
在中國不斷增強對數據的控制以及全球對此的戒備中,DeepSeek 情況的發展特別引人注目。根據歐盟的資訊保護規範和美國不同州的隱私法律,企業需要慢速測試以確保在引用這些大型語言模型時不會侵犯使用者隱私。這是對企業隱私政策和數據保護能力的一個重要挑戰。
隱私風險與企業決策
DeepSeek 的隱私政策顯示其與合作的廣告及分析夥伴共享數據,這樣的做法和其他競爭者相似,但具體操作上可能導致的風險卻不可忽視。隨著市場對其技術價值的期待,隱私風險仍然應該被放在首位。這也讓企業在選擇技術供應商時不僅要考慮產品技術優勢,更要重視其數據保護策略。
總結
DeepSeek 的 R1 大型語言模型在性能上有著明顯的競爭優勢,但其隱私政策和數據運用方式卻令不少隱私專家擔憂。如果想要確保引入這類技術的同時不侵犯使用者的隱私,相關企業必須加強自身的數據保護機制,同時監控供應商的數據政策,這樣才能在科技的進步與隱私保護之間找到平衡的立足點。