廖不十 作品

0793 這位中國青年太恐怖了


                 烏鎮物聯網大會上,霍利提出了Ai賦能能源科技和生物工程,受到世界關注。

  馬斯克也是在這個時候,開始關注霍利這位東方企業家。

  今天霍利又在硅谷小鎮的科技論壇上提出了另外一個觀點,“Ai監管Ai”。

  從事Ai研究的公司都有預估Ai帶來的負面影響,監管是必不可少的。

  但是他們的思維和當年監管核武器一樣,希望各國政府和國際社會出面來監管。

  簡單地講就是政策性監管,把風險講到最低。

  馬斯克和臺下的奧特曼心裡清楚,這種監管根本起不到多大的作用。

  原因很簡單,現在的Ai市場規模約為1500億美金,處在風口之上,資本、科技公司全都重倉押注Ai,在這樣的背景下,政策是無法跟上市場變化的。

  而Ai進化的速度也遠高於市場。

  所以馬斯克才會提出“人類預知和承受風險的能力是有限的”這樣的觀點。

  他想表達的是,人要接受Ai帶來的一切改變。

  去適應Ai。

  就在這個時候霍利提出了一個“Ai監管Ai”的理論。

  太新了。

  甚至是不可思議的觀點。

  臺下的科技大佬和各大科學家人材都為之震驚,同時也非常期待霍利繼續講下去。

  霍利接著道:“我們通常提到的用魔法打敗魔法的理論,其實是充滿哲學思維的。

  你不能否認哲學是人類進化史上最偉大的科學之一,甚至凌駕科技之上。

  任何一件事物的發展都會遵循一個規律,想要清楚認識背後的規律,一定要找到方法論。

  毫無疑問,Ai的發展如果只是停留在輔助工具,為各行各業賦能的基礎上,它是能夠推動人類文明向前發展的。

  如果Ai超越了這麼功能,我們或許就不應該談論人類文明瞭。

  馬斯克提到人的軀體將會消磨,意識會長存,這應該是另外一種文明的誕生。

  Ai大模型的關鍵在於它的算法,人類可以用算法賦予Ai超越人類的能力,我相信反過來,我們也可以利用不同的算法對它進行限制和監管。

  其實最低層的邏輯就是算法制衡。

  培養一個惡魔的同時,培養一位天使。

  這也是我投資Ai要同步做的事情。”

  馬斯克愣神看著霍利。

  不管是哲學思維,還是算法制衡的理論,都是有可行性的。