推 abc12812 : 你這樣講 感覺AI泡沫就快爆了09/19 09:16
當前還有很多商業應用還可以探索,不至於泡沫就是了,而且很多商業應用是有既定模式
的,所以去討論AGI有沒有意義就多了。
※ 編輯: sxy67230 (49.216.223.33 臺灣), 09/19/2024 09:22:39
推 ayianayian : AI軟體有了,但是對應的硬體還在孵 09/19 09:25
推 nckuff : 跨某 有沒有外行人也能聽得懂的講法 09/19 10:03
→ nckuff : 所以還是跌代逼近嗎 那思考一說又從何而來09/19 10:04
→ DrizztMon : AI不會泡沫 但不要過度預估LLM上限 09/19 10:11
推 Kroner : 求推薦靠譜的復健診所,小弟關節治好再來跪謝! 09/19 13:47→ Izangel : 看Claude多久推出競品就知道有沒有壁壘 09/19 10:36
→ jack529 : 不錯了啦 比起4o 智能上提升不少 09/19 13:11
推 OSDim : 怎麼好像每個版都有一個阿肥==09/19 13:47
推 Kroner : 剛開始吃UC2,期待 09/19 14:24推 y800122155 : 說穿了o1就是自己做了prompt engineer 的工作,但這 09/19 14:24
→ y800122155 : 並不代表能推論出各家模型最終能力都差不多吧?只能 09/19 14:24
→ y800122155 : 說prompt engineer 跟一般使用者用起來的效果差異會09/19 14:24
→ y800122155 : 變小吧09/19 14:24
推 Kroner : 看到關節痛,我就想起我姨媽 09/20 12:09剛剛下班才看到,這邊的CoT跟你網路上看到的CoT差異很大喔!傳統上下step by step那
個是prompt engineer沒錯,但這次o1的CoT是類似於隱式設計進去先讓模型生成多個取樣
步驟再像鏈一樣一步一步思考,這也是為什麼當前很多示範都顯示出他很慢,也是我為什
麼會說這次的模型絕對是一個Agent而非傳統意義上的LLM。單一模型存在上限主要也是從
這次OpenAI沒有釋出GPT系列以及其他廠家的技術報告推論出來單一LLM逼近上限的事實,
主要可能原因還是在於高品質數據本身就存在上限,要再提升就要靠類蒸餾(Boostrap)
等方法。至於技術壁壘我認為還是不存在的,畢竟這個谷歌Deepmind大廠其實早在年初也
有類似的技術發表出來了,所以我才會說以OpenAI這次反常到不透露細節的作法,很可能
是怕被競品出現。
推 yutaka28 : 這樣假如沒甚麼技術壁壘,也只代表普通人技能更....09/19 15:51
※ 編輯: sxy67230 (1.162.76.16 臺灣), 09/19/2024 20:00:48
推 strlen : 谷歌的壁壘就是自己啊 看那個生圖AI還不敢開放 笑死 09/19 22:49
推 create8 : 幹,感謝分享,雖然我看不懂,但我知道 ai 真的比 09/20 12:09
→ create8 : 我強了….. 09/20 12:09
推 Kroner : 5樓關節跟X一樣 09/20 15:54推 aria0520 : o1根本沒壁壘 deepmind也提了類似概念 09/20 15:53
→ aria0520 : 老實說AI研發能力我還是看好谷歌 09/20 15:54
→ aria0520 : scale on infer不是本質上的prompt engineer 09/20 15:54
→ aria0520 : 在訓練時就內嵌在token間cot了 09/20 15:54
→ aria0520 : 但現在各巨頭都已經在搞這個 openai見不妙先佔高地 09/20 15:55