
我一直用的AI、它也被用於戰爭
「克勞德總是幫我編碼,、它被美國軍方用於秘密系統。
知道這個事實、想必很多人都感到不舒服和害怕。。
和那個AI是一樣的、
它是用於目標識別還是戰鬥模擬?
綜上所述、
相同的人工智慧、不一樣。
了解差異、「人工智慧為何可怕」的本質變得更加清晰。
克勞德是誰?
克勞德是、
人擇 這是由。
- 文章理解
- 概括
- 推論
- 程式設計協助
專門從事諸如、許多開發人員和創作者每天都在使用。
在編碼中、我不是另一個人工智慧、我對克勞德有絕對的信任。。
另一方面、據報道 米中央軍(CENTCOM)
然後、用於資訊分析、目標識別和戰鬥模擬
使用基於克勞德的人工智慧。
這裡出現一個問題。
為什麼是同一個AI?、
印象相差這麼大嗎?
區別①「互聯資訊」而非人工智慧本身
我們使用克勞德
- 公開資訊
- 您輸入的文字
- 通用程式碼文檔
克勞德在軍事系統中
- 機密情報
- 情報數據
- 衛星/戰局模擬結果
愛は、
我只能思考所提供的訊息。
換句話說、
危險的不是人工智慧。、
讀什麼、你在哪裡連接
這是結構。
區別二:誰有決策權?
重要的是、人工智慧不會“決定”這就是重點。
克勞德民用
- 建議和幫助
- 執行決策是由人做出的
- 錯誤的影響是有限的
克勞德軍事用途
- 快速整理大量資訊
- 支持人類決策
- 結果直接連結到現實世界
人工智慧只是壓縮和擴展思想的工具です。
如果它被放置在戰場上、結果也將是戰爭。。
區別③安全設計尺寸(護欄)
Anthropic 有一個名為「憲法人工智慧」的安全理念。。
但出於軍事目的、進一步:
- 輸出限制
- 完整的日誌記錄
- 使用目的限制
- 旨在避免獨立決策
比如、與民用不同層次的管理已新增。
我們使用的克勞德是、這是最安全的「消費者版本」。。
為什麼我們會感到「害怕」?
很多人不自覺地、
- 人工智慧有思想
- AI自己做決定
我認為。
但現實中、
愛は、它是一種加速人類判斷的工具。
即使使用相同的工具、
- 對於編碼很有用
- 如果在戰爭中使用就很糟糕
這水滴本身、AI時代的本質です。
同樣的結構發生在AI x攝影/視覺領域
這是、視覺/照片生成也是如此。。
人工智慧看起來「危險」的時刻
- 用於虛假上下文
- 以誤導的方式放置
- 起源和意圖是隱藏的
AI「立項」的時刻
- 上下文很清楚
- 根據人類意圖設計
- 責任明確
換句話說、
人工智慧不是問題、
問題在於如何使用它的設計。
在這方面、軍事用途和視覺生成具有相同的結構。
結論:人工智慧危險嗎?
答案很簡單。
人工智慧既不危險也不安全
危險在於位置和設計。
我們在日常生活中使用的人工智慧、
根據您的使用方式,印象會發生 180 度的變化。。
這就是為什麼有必要、
- 這並不是要拒絕人工智慧
- 如何設計人工智慧、如何解釋
這個觀點。
概括
- 就連同一個克勞德、使用環境不同
- 危險在於環境,而不是人工智慧。
- 同樣的問題也發生在AI x視覺領域。
- 重要的是設計師的責任
AI時代在問什麼?、技術力ではなく設計力なのかもしれません。

