克勞德:為什麼我們一直用的AI被用在戰爭中

為什麼我們一直用的AI被用在戰爭中 |杉山信嗣

我一直用的AI、它也被用於戰爭

「克勞德總是幫我編碼,、它被美國軍方用於秘密系統。

知道這個事實、想必很多人都感到不舒服和害怕。。

和那個AI是一樣的、
它是用於目標識別還是戰鬥模擬?

綜上所述、

相同的人工智慧、不一樣。

了解差異、「人工智慧為何可怕」的本質變得更加清晰。


克勞德是誰?

克勞德是、
人擇 這是由。

  • 文章理解
  • 概括
  • 推論
  • 程式設計協助

專門從事諸如、許多開發人員和創作者每天都在使用。

在編碼中、我不是另一個人工智慧、我對克勞德有絕對的信任。。

另一方面、據報道 米中央軍(CENTCOM)
然後、用於資訊分析、目標識別和戰鬥模擬
使用基於克勞德的人工智慧。

這裡出現一個問題。

為什麼是同一個AI?、
印象相差這麼大嗎?


區別①「互聯資訊」而非人工智慧本身

我們使用克勞德

  • 公開資訊
  • 您輸入的文字
  • 通用程式碼文檔

克勞德在軍事系統中

  • 機密情報
  • 情報數據
  • 衛星/戰局模擬結果

愛は、
我只能思考所提供的訊息。

換句話說、

危險的不是人工智慧。、
讀什麼、你在哪裡連接

這是結構。


區別二:誰有決策權?

重要的是、人工智慧不會“決定”這就是重點。

克勞德民用

  • 建議和幫助
  • 執行決策是由人做出的
  • 錯誤的影響是有限的

克勞德軍事用途

  • 快速整理大量資訊
  • 支持人類決策
  • 結果直接連結到現實世界

人工智慧只是壓縮和擴展思想的工具です。

如果它被放置在戰場上、結果也將是戰爭。。


區別③安全設計尺寸(護欄)

Anthropic 有一個名為「憲法人工智慧」的安全理念。。

但出於軍事目的、進一步:

  • 輸出限制
  • 完整的日誌記錄
  • 使用目的限制
  • 旨在避免獨立決策

比如、與民用不同層次的管理已新增。

我們使用的克勞德是、這是最安全的「消費者版本」。。


為什麼我們會感到「害怕」?

很多人不自覺地、

  • 人工智慧有思想
  • AI自己做決定

我認為。

但現實中、

愛は、它是一種加速人類判斷的工具。

即使使用相同的工具、

  • 對於編碼很有用
  • 如果在戰爭中使用就很糟糕

水滴本身、AI時代的本質です。


同樣的結構發生在AI x攝影/視覺領域

這是、視覺/照片生成也是如此。。

人工智慧看起來「危險」的時刻

  • 用於虛假上下文
  • 以誤導的方式放置
  • 起源和意圖是隱藏的

AI「立項」的時刻

  • 上下文很清楚
  • 根據人類意圖設計
  • 責任明確

換句話說、

人工智慧不是問題、
問題在於如何使用它的設計。

在這方面、軍事用途和視覺生成具有相同的結構。


結論:人工智慧危險嗎?

答案很簡單。

人工智慧既不危險也不安全
危險在於位置和設計。

我們在日常生活中使用的人工智慧、
根據您的使用方式,印象會發生 180 度的變化。。

這就是為什麼有必要、

  • 這並不是要拒絕人工智慧
  • 如何設計人工智慧、如何解釋

這個觀點。


概括

  • 就連同一個克勞德、使用環境不同
  • 危險在於環境,而不是人工智慧。
  • 同樣的問題也發生在AI x視覺領域。
  • 重要的是設計師的責任

AI時代在問什麼?、技術力ではなく設計力なのかもしれません