關注DeepSeek
過年期間,看著這幾天來我的臉書被DeepSeek相關的文章和報導洗版,覺得非常有趣 — 曾幾何時,有這麼多人在同一時刻如此關心大型語言模型(LLM,以下簡稱大模型)的技術?比起關注DeepSeek本身,更有趣的是觀察眾人對DeepSeek的反應
不過我沒想浪費我寶貴的年假寫這些,因為我又不炒股票,該做的研究已經在做,擔心的話的早就說了,不差這幾天。
其實LLM不斷在快速進化,並不令人驚訝。DeepSeek會讓這麼多人在年假中汲汲營營做功課,一言以蔽之,主要的還是因為「中國公司」在受到箝制的情況下,竟然只需使用「相對少量的GPU」,以「投機取巧的訓練方法」打造出比知名大模型具備「更強更便宜」的「推理能力」的「商用開源模型」,同時還造成「NVIDIA股票重挫」,連帶引發「美國該如何回應」以及「台灣怎麼辦呢」的熱烈討論。
以上我在一句話中以「引號」標示出的九個關鍵詞,每個都可以寫一長篇,可見這個議題之有趣與複雜,很難以些許文字講清楚。我想在年假結束之際,簡單點評一下這九個關鍵詞,作為對現況的整理,給我實驗室同學做參考,也作為今年開工之前的熱身:
一、中國公司:
對中國而言,發展高效能計算(HPC)和人工智慧(AI)是國家戰略上極為重要的佈局,因此過去多年來均以國家力量投入技術研發,培育許多人才;加上中國大量地蒐集和運用數據,累積相當多的實務經驗,已威脅到美國的霸主地位,所以美國幾年前決定要採取一些箝制的措施,包括限制高效能處理機晶片的輸入至中國,限制中國的高階晶片研製能力等,但中國仍然設法透過各種管道取得資源。
此次DeepSeek或許讓某些人意識到,至今的箝制的措施,或許仍不足以減緩中國在AI技術的發展,但我想這點則見仁見智。好比中國在1950-60年代,也是在相當困難的情況下研發出核子彈,為的也是國家的戰略佈局,在整體的科技層次上,仍然與當時的先進國家有段距離。不過如今已非吳下阿蒙,DeepSeek對美國透露出的警訊,應不能等閒視之。
至於中國製造的AI模型和服務是否可信賴,是否有資訊安全的顧慮,那又是另一個複雜的議題。市面上已經有很多中國製造的產品,用戶心中也已經有一把尺,但AI牽涉的層面更深更廣,涉及意識形態、國家安全,該如何掌控尺度,仍有待釐清。因應DeepSeek的崛起,相關者必須迅速作出決定,但必須先搞清楚,DeepSeek既是一個雲端AI服務,也是一個可公開下載的AI模型,二者固然相關,但影響層面不同。
二、相對少量的GPU:
有人很驚訝,覺得美國都已經限制高效能處理機晶片輸入至中國,怎麼還有辦法以相對少量的GPU與美國大公司爭鋒呢?其實使用大量GPU來訓練模型原本就是相對暴力的作法,但不見得是有效率(cost effective )的方法。誰說GPU比較少、較為低階,就訓練不出好模型?要知道,超多的GPU,當然有利於探索型的研究,但過程中有很多的算力是浪費掉了;一旦有了明確的方向,就不見得需要那麼多的算力。尤其是站在前人的基礎上做研發,專心致志於某個方向,有很大的機會能後來居上。
DeepSeek官方宣稱,僅使用2048塊H800 GPU即成功完成了6710億(671B)參數模型的訓練,但大家不要過度解讀了。首先,這講的是最終的訓練過程,並非說他們只有兩千多張GPU。其次,那個671B參數的模型實際上是一個混合專家(Mixture-of-Experts,MoE)模型,遠較單一的Dense模型容易訓練;而且推理能力所用到的思維鏈(chain-of-thoughts,CoT)模型,採用強化式學習,在使用已存在的模型(例如OpenAI的o1)作為參考的情況下,可能更省事。堆疊上述以及更多節約省事的技法,這個打6折,那個打4折,用了一堆之後理論上就有可能降到百分之一以下,但這仍有待釐清。
不過呢,投入的資源還是要夠,頂尖的研究人才非常重要,算力還是不能太少。如果連現有的大模型都跑不動,那還做什麼先進研發?DeepSeek v3 671B的大模型,BF16版本光是存參數就需要671*2=1342GB的記憶體,而16顆H800合起來也只有1280GB的記憶體。放眼台灣的產學界,有多少高階GPU可用呢?我不想多抱怨,只能說巧婦難爲無米之炊。
三、投機取巧的訓練方法:
由於成本低到有些人覺得匪夷所思,於是有人質疑DeepSeek使用了一些投機取巧(抄襲)的的方法打造模型,但如同上述,的確有不少技法是可以節省訓練成本的,因此我在沒有進一步瞭解細節之前,不大想對這點多加評論。
不過我想提出一點,以標竿測試(Benchmarks)成績論英雄,並不見得合宜。關於LLM的效能評比,我在去年12/9有篇文章,有興趣的同學可以參考。我在文中說道,「我們長年做效能分析的人,對於這類測試都會有一個疑慮,那就是新產品往往會針對測試做優化,以拿到更好的成績。訓練AI模型的過程中如果拿考古題來特訓,自然會拿高分,但這種高分真的代表學習成效或智力嗎?如同考試,這些測試標竿應該經常更新、與時俱進才好。」
換句話說,你要從零開始,從各種課程和社團活動上廣泛學習未來職場上可能有用的技能,還是只看參考書的重點摘要、採用前人傳下來的應考秘笈,接受補教名師的指點,積極針對考題做準備?如果智力程度差不多,後者應該既省事又容易考高分吧?實際上還是要看應用情境,才能在實用性上做較完整的評估。
四、推理能力:
DeepSeek最亮眼(拿高分)的強項在於推理能力,因此對標的是OpenAI的o1,都用上了思維鏈(chain-of-thoughts,CoT),基本上是透過大量考古題以及強化式學習來產生一系列的解題步驟。但這數學題考高分,是否意味著推理能力就一定比一般人強呢?倒也未必如此。我在去年7月有篇貼文「大型語言模型 (LLM) 是否真的具備推理能力呢?」,可供同學參考。
雖然我還需要進一步測試和分析才好評論DeepSeek的個案,但我想,由於採用了強化式學習,如果可以拿OpenAI的o1作為參考,當然比起從零開始要快許多。還記得AlphaGo嗎?Google剛開始花了很多時間和算力訓練AlphaGo,接下來讓AlphaGo彼此對弈,以強化式學習增長棋力,於是進步神速。
有趣的是,相較於不願提供思維鏈細節的OpenAI,DeepSeek倒是把整個解題步驟秀出來,對於想確認答案的正確性或是學習解題的使用者,這是非常有用的資訊,有興趣的人可以看看。
五、更強更便宜:
AI真正決勝的主戰場在於推論服務,關鍵在於誰的模型產出的結果最精準優秀,或是性價比最高。對最先進、最競爭的場合而言,可以不計成本追求強大的AI,但對於普羅大眾而言,大部分在乎的還是性價比。因此在大模型推論服務普及化的過程中,具競爭力的性價比,是商業成功的重要關鍵。至於要如何做到,那就得靠軟硬體的優化了。
671B的DeepSeek V3模型,如上所述,光是存放參數就要16顆H800/H100,這樣所費不貲。把參數都放在GPU上,推論速度最快,但也是暴力(燒錢)的作法。實際上,DeepSeek V3模型雖然擁有671B的參數,但它MoE的架構每次推論所使用的參數只有大約37B,因此只有1/18的參數被用到。另外,DeepSeek還有,DeepSeek近日釋出6個蒸餾版( distilled)的小型化版本的R1模型,參數量從1.5B、7B到70B,提供多樣的選擇,對單純希望以小搏大、追求性價比的用戶是件好事。
我們實驗室這兩年來實際探討LLM的軟硬體架構,知道大模型的性價比一直都在提升。一方面硬體速度持續提高,在張量計算單元中加入低精準度計算的支援,提高記憶體容量和跨GPU的傳輸速度;另一方面則是在軟體效能和在模型架構上有所改良,例如我去年底邀請Byron演講的Liger Kernel,以及我們最感興趣的MoE模型,性價比往往高於LLAMA那種dense模型。顧名思義,MoE就是把一群較小但各有專長的模型組織起來,根據用戶的提問性質,彙整其中的某幾個專家的意見作為輸出。除了性價比好之外,還容易訓練,俗語說「三個臭皮匠勝過諸葛亮」,有這樣的意涵。面對算力資源不足的情況,我們也唯有如此對應。
六、商用開源模型:
我希望各位同學多關注開源模型,因為它除了方便學習、做研究之外,也有其商業價值。Meta的Llama模型,是最知名的開源模型之一,從2023/02釋出第一版,到現在的第三版,有長足的進步。尤其到了第三版之後,每個版本更新也都有明顯的增幅。去年底釋出的Llama3.3,小小的70B模型的答題正確率逼近參數量6倍多的Llama3.1 405B模型,讓我得以在128GB共享記憶體的MacBook Pro上使用GPU以堪用的5 tokens/s的速度運行int8版本,不用擔心因為使用雲端AI服務而洩漏了機敏資料。(有興趣的同學,可以參考我去年12/17的臉書文。)
實驗室也研究過DBRX、Mistral等開源MoE模型,探索如何以分散式計算與系統優化的方法提升這些模型的性價比,或是串連數台比較小的電腦,有效率地一起跑單一電腦跑不動的大模型。參與這些研究對於大家實際了解大模型的軟硬體架構特性是很有用的,不只是下載人家建好的模型來用而已,提高性價比的關鍵在於對系統的理解、對軟硬體互動的深入觀察,以及效能工具的使用,要打敗的魔鬼都藏在細節裡。
此外還有相當多的開源模型,可以公開下載使用,但能否供商業使用,則有不同的授權條款。DeepSeek採用的MIT 開源授權,可供商業使用,以它所標榜的高性價比,自然受到極大的矚目。很多公司早已準備使用開源大模型,只是在等待時機成熟的契機,但即便契機已至,我看很多公司仍然缺乏能有效訓練和運用大模型的人類專家,因此機會是給準備好的公司。此外,除了GPU之外,硬體加速器也會因為時機成熟而普遍化,也會有很多軟硬整合的機會。
七、NVIDIA股票重挫:
NVIDIA之所以大賺其錢,主要是因為這幾年H100等級的高階GPU晶片因為大模型訓練的熱需而供不應求。如果今天不需要大量高階的GPU,也能訓練出具競爭力的大模型,那大家為什麼還要搶購NVIDIA的GPU呢?這個問題一出來,當然影響了NVIDIA的股票行情。但這真的代表NVIDIA的護城河出了裂縫嗎?我想不需要做過度的詮釋。
我想,既有的「模型大就是好、算力多就是強」的訓練手法,以及以結果論英雄的暴力美學,早已有不少專家提出疑慮,而DeepSeek的故事讓大家對上述的現象多些省思。如果模型架構停滯不前、訓練資料量無法大幅增加,不能讓大模型的能力大幅進步的話,那麼性價比就成為競爭的重點,而低成本化(Cost-Down)正是中國和台灣資訊產業的強項,不少的公司原本就在研發硬體加速晶片,只是因為大模型進化太快而不敢貿然出手而已。尤其是高階的晶片,研發和製程都很燒錢,不是一般公司玩得起的,因此NVIDIA在高階市場上仍有其領先優勢。另一方面,推論服務的市場原本就在成長,NVIDIA也有其佈局和優勢,但畢竟利潤遠不如高階晶片,而且門檻較低,競爭也更加激烈。
然而,不需要高階GPU的大算力與大記憶體就能訓練出具競爭力的大模型,並且提供價廉物美的推論服務,這樣的故事的確對NVIDIA的高階GPU的市場造成影響。就整體而言,NVIDIA恐怕不能繼續以這些年慣用的高姿態宰制市場,影響比較大的是利潤,不過我還是得說,目前NVIDIA在技術和生態系上還是領先對手的,需要大算力的最先進AI研發還是需要NVIDIA晶片的。
八、美國該如何回應:
我看美國已經有很多人在討論DeepSeek,政府和公司在政治和技術上的反應也逐漸出來了,大家可以自己看,重點在於後續美國政府和公司會怎麼做,我先不在此評論,只會提兩個故事。
第一個故事是,美蘇在冷戰時期,蘇聯率先發射人造衛星、把人類送上太空,讓美國顏面盡失,激發起登月計畫。第二個故事是,2000年左右電子商務鼎盛時期,又稱為網際網路泡沫(Dot-Com Bubble),後來911事件催化了許多矽谷公司的泡沫化,不過Google、Amazon這些公司仍是壯大成為大公司,後來矽谷還是有雲端服務、大數據分析以及AI等風潮相繼出現,造就了許多高科技公司。
我想DeepSeek在某種程度上,讓美國有所檢討和反思,也不是件壞事。美中的競爭和對立或許因此而激化,至於美國是否能因此而催生出類似登月的AI計畫,或是因此讓該破的泡沫加速破滅,讓真正有價值的技術和應用早日浮現呢?就讓我們看下去。各位同學在學習技能和思考未來的過程中,可以嘗試看遠一些,不要像一些炒股票的人那樣看短線。
九、台灣怎麼辦:
日前數位部發佈訊息,以資安考量為由要求公務機關禁用DeepSeek雲端服務,這就像之前已有禁用某些中國製的資通訊設備,並不意外。不過,如前所述,DeepSeek既是雲端服務,也是開源的模型,如果僅是下載DeepSeek模型下來在本地端使用,或是放在產品之中,那麼一則並沒有洩漏資料的風險,一則恐怕是禁不勝禁的,要如何面對呢?
我在去年12/19的貼文「AI模型的意識形態」談過,AI模型提供的文字中可能夾雜著訓練方預設的意識形態,例如中國與台灣的關係,在中國訓練的模型會堅持提供中國官方認可的說法,這個是模型使用者很明確可以看到的,但有些意識形態的產出並不是那麼明顯的,反而可能默默地影響使用者和接受者、蔓延到整個社會文化。
有些人希望台灣也要有意識形態無虞而且具競爭力的AI模型,但要如何打造出來呢?有人說,DeepSeek能,台灣為何不能?我沒有定論,只能說做這種事要有共識、決心和方法,而且能不能這件事,要做了才知道,不做的話則是絕對不能。我常說關鍵在於人才的培育與賦能,是國家當務之急,應該投入所需的資源。如果DeepSeek的訓練成本和高性價比屬實,證明了LLM的訓練和優化並非大公司專屬的霸權,不再遙不可及,那或許值得仿效。當然,如我以上所說的,這件事還有待進一步釐清就是了。
All reactions:
41 comments
862 shares
Like
Comment
Newest
Na Li
坐而言不如起而行。這是您的罩門。
David Peng
老師你說得 實在太有料了
ChangJe Li
台灣之前不是也有Dppgpt,後面莫名奇妙被下架了。
Martinze Lin
我來朝聖的,感謝老師
Shagou JunYi Wu
借分享,老師說的好有說服力
A-loong Tsai
省思
商業目的只論結果與影響力,說是它「投機取巧」,不如說是「截彎取直」,不在受到舊規則或繁瑣程序的限制,對於產業想必是一波洗牌重組。
3' xlink:href='%23b'/%3e%3cuse fill='black' filter='url(%23c)' xlink:href='%23b'/%3e%3cpath fill='white' d='M12.162 7.338c.176.123.338.245.338.674 0 .43-.229.604-.474.725a.73.73 0 01.089.546c-.077.344-.392.611-.672.69.121.194.159.385.015.62-.185.295-.346.407-1.058.407H7.5c-.988 0-1.5-.546-1.5-1V7.665c0-1.23 1.467-2.275 1.467-3.13L7.361 3.47c-.005-.065.008-.224.058-.27.08-.079.301-.2.635-.2.218 0 .363.041.534.123.581.277.732.978.732 1.542 0 .271-.414 1.083-.47 1.364 0 0 .867-.192 1.879-.199 1.061-.006 1.749.19 1.749.842 0 .261-.219.523-.316.666zM3.6 7h.8a.6.6 0 01.6.6v3.8a.6.6 0 01-.6.6h-.8a.6.6 0 01-.6-.6V7.6a.6.6 0 01.6-.6z'/%3e%3c/g%3e%3c/svg%3e)
John Lao
只談技術的話,洪老師說的真的無可反駁,但如果DS的推算數據係來自OPENAI且是別人的資料(DATA)而不是對全世界開放的資訊的話,這是犯法行為。 我想有人把洪教授的論文當成他的文章發表,你不會覺得他是學界大能吧!
3' xlink:href='%23b'/%3e%3cuse fill='black' filter='url(%23c)' xlink:href='%23b'/%3e%3cpath fill='url(%23d)' d='M5.643 10.888C5.485 12.733 6.369 14 8 14c1.63 0 2.515-1.267 2.357-3.112C10.2 9.042 9.242 8 8 8c-1.242 0-2.2 1.042-2.357 2.888'/%3e%3cuse fill='url(%23e)' xlink:href='%23f'/%3e%3cuse fill='black' filter='url(%23g)' xlink:href='%23f'/%3e%3cpath fill='%234E506A' d='M4.481 4.567c.186.042.29.252.232.469-.057.218-.254.36-.44.318-.186-.042-.29-.252-.232-.47.057-.216.254-.36.44-.317zm6.658.063c.206.047.322.28.258.52-.064.243-.282.4-.489.354-.206-.046-.322-.28-.258-.521.063-.242.282-.4.49-.353z'/%3e%3cuse fill='black' filter='url(%23h)' xlink:href='%23i'/%3e%3cuse fill='url(%23j)' xlink:href='%23i'/%3e%3c/g%3e%3c/svg%3e)
' xlink:href='%23b'/%3e%3cuse fill='black' filter='url(%23c)' xlink:href='%23b'/%3e%3cpath fill='white' d='M12.162 7.338c.176.123.338.245.338.674 0 .43-.229.604-.474.725a.73.73 0 01.089.546c-.077.344-.392.611-.672.69.121.194.159.385.015.62-.185.295-.346.407-1.058.407H7.5c-.988 0-1.5-.546-1.5-1V7.665c0-1.23 1.467-2.275 1.467-3.13L7.361 3.47c-.005-.065.008-.224.058-.27.08-.079.301-.2.635-.2.218 0 .363.041.534.123.581.277.732.978.732 1.542 0 .271-.414 1.083-.47 1.364 0 0 .867-.192 1.879-.199 1.061-.006 1.749.19 1.749.842 0 .261-.219.523-.316.666zM3.6 7h.8a.6.6 0 01.6.6v3.8a.6.6 0 01-.6.6h-.8a.6.6 0 01-.6-.6V7.6a.6.6 0 01.6-.6z'/%3e%3c/g%3e%3c/svg%3e)
Ben-julio Kuo
清晰明瞭也夠客觀~推
Linfon Chen
台灣需要這種客觀的觀點
4' xlink:href='%23b'/%3e%3cuse fill='black' filter='url(%23c)' xlink:href='%23b'/%3e%3cpath fill='white' d='M12.162 7.338c.176.123.338.245.338.674 0 .43-.229.604-.474.725a.73.73 0 01.089.546c-.077.344-.392.611-.672.69.121.194.159.385.015.62-.185.295-.346.407-1.058.407H7.5c-.988 0-1.5-.546-1.5-1V7.665c0-1.23 1.467-2.275 1.467-3.13L7.361 3.47c-.005-.065.008-.224.058-.27.08-.079.301-.2.635-.2.218 0 .363.041.534.123.581.277.732.978.732 1.542 0 .271-.414 1.083-.47 1.364 0 0 .867-.192 1.879-.199 1.061-.006 1.749.19 1.749.842 0 .261-.219.523-.316.666zM3.6 7h.8a.6.6 0 01.6.6v3.8a.6.6 0 01-.6.6h-.8a.6.6 0 01-.6-.6V7.6a.6.6 0 01.6-.6z'/%3e%3c/g%3e%3c/svg%3e)
張鷹揚
「使用已公開的模型作爲參考」,老師您說話好客氣




5' xlink:href='%23b'/%3e%3cuse fill='black' filter='url(%23c)' xlink:href='%23b'/%3e%3cpath fill='white' d='M12.162 7.338c.176.123.338.245.338.674 0 .43-.229.604-.474.725a.73.73 0 01.089.546c-.077.344-.392.611-.672.69.121.194.159.385.015.62-.185.295-.346.407-1.058.407H7.5c-.988 0-1.5-.546-1.5-1V7.665c0-1.23 1.467-2.275 1.467-3.13L7.361 3.47c-.005-.065.008-.224.058-.27.08-.079.301-.2.635-.2.218 0 .363.041.534.123.581.277.732.978.732 1.542 0 .271-.414 1.083-.47 1.364 0 0 .867-.192 1.879-.199 1.061-.006 1.749.19 1.749.842 0 .261-.219.523-.316.666zM3.6 7h.8a.6.6 0 01.6.6v3.8a.6.6 0 01-.6.6h-.8a.6.6 0 01-.6-.6V7.6a.6.6 0 01.6-.6z'/%3e%3c/g%3e%3c/svg%3e)
Vincent Su
謝謝老師無私提供最底層的科技研發乾貨的知識。受教了
擲地有聲 最近看到最精闢的分析
Vincent Deng
兩岸隔離自然產生變異,這是台灣主體意識產生的原因,但未來如何誰知道呢?
AI最後比的不只是cp值,社會跟政治體制對它的理解也可能永遠跟不上,因此產生的衝擊跟範圍更大。
Yen-lung Tsai
感謝老師完整的說明,近來太多似是而非的言論看得都覺得累了。
30' xlink:href='%23b'/%3e%3cuse fill='black' filter='url(%23c)' xlink:href='%23b'/%3e%3cpath fill='white' d='M12.162 7.338c.176.123.338.245.338.674 0 .43-.229.604-.474.725a.73.73 0 01.089.546c-.077.344-.392.611-.672.69.121.194.159.385.015.62-.185.295-.346.407-1.058.407H7.5c-.988 0-1.5-.546-1.5-1V7.665c0-1.23 1.467-2.275 1.467-3.13L7.361 3.47c-.005-.065.008-.224.058-.27.08-.079.301-.2.635-.2.218 0 .363.041.534.123.581.277.732.978.732 1.542 0 .271-.414 1.083-.47 1.364 0 0 .867-.192 1.879-.199 1.061-.006 1.749.19 1.749.842 0 .261-.219.523-.316.666zM3.6 7h.8a.6.6 0 01.6.6v3.8a.6.6 0 01-.6.6h-.8a.6.6 0 01-.6-.6V7.6a.6.6 0 01.6-.6z'/%3e%3c/g%3e%3c/svg%3e)
Allenway Hsiao
老師寫得太精闢了 推~
Ling-Sen Wu
thanks
戴強尼
專業的研究
Mark Lee
擲地有聲
Eric Chu
太棒的文章
吳宗堂
關於第三點,當家教時的我和自學的我基本上兩個人。
因為我是那種考雅思會跑去讀英語簡史,語源學,還有語言學入門的超低效率的廢人。
9' id='d'%3e %3cstop stop-color='%23FFE874' offset='0%25'/%3e %3cstop stop-color='%23FFE368' stop-opacity='0' offset='100%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='10.82%25' cy='52.019%25' fx='10.82%25' fy='52.019%25' r='10.077%25' gradientTransform='matrix(.91249 .4091 -.31644 .7058 .174 .109)' id='e'%3e %3cstop stop-color='%23F28A2D' stop-opacity='.5' offset='0%25'/%3e %3cstop stop-color='%23F28A2D' stop-opacity='0' offset='100%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='74.131%25' cy='76.545%25' fx='74.131%25' fy='76.545%25' r='28.284%25' gradientTransform='rotate(-38.243 1.4 .537) scale(1 .40312)' id='f'%3e %3cstop stop-color='%23F28A2D' stop-opacity='.5' offset='0%25'/%3e %3cstop stop-color='%23F28A2D' stop-opacity='0' offset='100%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='31.849%25' cy='12.675%25' fx='31.849%25' fy='12.675%25' r='10.743%25' gradientTransform='matrix(.98371 -.17976 .03575 .19562 0 .16)' id='g'%3e %3cstop stop-color='%23D45F00' stop-opacity='.25' offset='0%25'/%3e %3cstop stop-color='%23D45F00' stop-opacity='0' offset='100%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='68.023%25' cy='12.637%25' fx='68.023%25' fy='12.637%25' r='12.093%25' gradientTransform='rotate(11.848 .192 .076) scale(1 .19886)' id='h'%3e %3cstop stop-color='%23D45F00' stop-opacity='.25' offset='0%25'/%3e %3cstop stop-color='%23D45F00' stop-opacity='0' offset='100%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='50.709%25' cy='66.964%25' fx='50.709%25' fy='66.964%25' r='87.22%25' gradientTransform='matrix(0 -.8825 1 0 -.163 1.117)' id='j'%3e %3cstop stop-color='%233B446B' offset='0%25'/%3e %3cstop stop-color='%23202340' offset='68.84%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='49.239%25' cy='66.964%25' fx='49.239%25' fy='66.964%25' r='87.22%25' gradientTransform='matrix(0 -.8825 1 0 -.177 1.104)' id='k'%3e %3cstop stop-color='%233B446B' offset='0%25'/%3e %3cstop stop-color='%23202340' offset='68.84%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='48.317%25' cy='42.726%25' fx='48.317%25' fy='42.726%25' r='29.766%25' gradientTransform='matrix(-.09519 -.96847 1.71516 -1.15488 -.204 1.389)' id='l'%3e %3cstop stop-color='%23E38200' offset='0%25'/%3e %3cstop stop-color='%23CD6700' offset='100%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='50%25' cy='29.807%25' fx='50%25' fy='29.807%25' r='31.377%25' gradientTransform='matrix(.07236 -.9819 2.22613 1.12405 -.2 .454)' id='m'%3e %3cstop stop-color='%23E38200' offset='0%25'/%3e %3cstop stop-color='%23CD6700' offset='100%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='73.646%25' cy='44.274%25' fx='73.646%25' fy='44.274%25' r='29.002%25' gradientTransform='scale(.92955 1) rotate(20.36 .764 .598)' id='p'%3e %3cstop stop-color='%23FF7091' stop-opacity='.7' offset='0%25'/%3e %3cstop stop-color='%23FE6D8E' stop-opacity='0' offset='100%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='26.749%25' cy='29.688%25' fx='26.749%25' fy='29.688%25' r='29.002%25' gradientTransform='scale(.92955 1) rotate(20.36 .278 .353)' id='q'%3e %3cstop stop-color='%23FF7091' stop-opacity='.7' offset='0%25'/%3e %3cstop stop-color='%23FE6D8E' stop-opacity='0' offset='100%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='23.798%25' cy='53.35%25' fx='23.798%25' fy='53.35%25' r='24.89%25' gradientTransform='matrix(-.18738 .97947 -1.25372 -.27758 .951 .449)' id='r'%3e %3cstop stop-color='%239C0600' stop-opacity='.999' offset='0%25'/%3e %3cstop stop-color='%239C0600' stop-opacity='.94' offset='26.692%25'/%3e %3cstop stop-color='%239C0600' stop-opacity='0' offset='100%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='97.063%25' cy='54.555%25' fx='97.063%25' fy='54.555%25' r='15.021%25' gradientTransform='matrix(.8002 .50886 -.59365 1.08039 .518 -.538)' id='s'%3e %3cstop stop-color='%23C71C08' stop-opacity='.75' offset='0%25'/%3e %3cstop stop-color='%23C71C08' stop-opacity='.704' offset='53.056%25'/%3e %3cstop stop-color='%23C71C08' stop-opacity='0' offset='100%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='4.056%25' cy='24.23%25' fx='4.056%25' fy='24.23%25' r='13.05%25' gradientTransform='matrix(.8728 -.3441 .41218 1.20997 -.095 -.037)' id='t'%3e %3cstop stop-color='%239C0600' stop-opacity='.5' offset='0%25'/%3e %3cstop stop-color='%239C0600' stop-opacity='.473' offset='31.614%25'/%3e %3cstop stop-color='%239C0600' stop-opacity='0' offset='100%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='74.586%25' cy='77.013%25' fx='74.586%25' fy='77.013%25' r='17.563%25' gradientTransform='matrix(.77041 .55955 -.56333 .89765 .605 -.339)' id='u'%3e %3cstop stop-color='%239C0600' stop-opacity='.999' offset='0%25'/%3e %3cstop stop-color='%239C0600' stop-opacity='.934' offset='45.7%25'/%3e %3cstop stop-color='%239C0600' stop-opacity='.803' offset='59.211%25'/%3e %3cstop stop-color='%239C0600' stop-opacity='0' offset='100%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='50.001%25' cy='50%25' fx='50.001%25' fy='50%25' r='51.087%25' gradientTransform='matrix(-.3809 .91219 -.97139 -.46943 1.176 .279)' id='v'%3e %3cstop stop-color='%23C71C08' stop-opacity='0' offset='0%25'/%3e %3cstop stop-color='%23C71C08' offset='100%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='2.243%25' cy='4.089%25' fx='2.243%25' fy='4.089%25' r='122.873%25' gradientTransform='scale(.78523 1) rotate(36.406 .025 .05)' id='x'%3e %3cstop stop-color='%23EDA83A' offset='0%25'/%3e %3cstop stop-color='%23FFDC5E' offset='100%25'/%3e %3c/radialGradient%3e %3cradialGradient cx='100%25' cy='7.011%25' fx='100%25' fy='7.011%25' r='105.039%25' gradientTransform='scale(-.90713 -1) rotate(-45.799 -.217 2.489)' id='z'%3e %3cstop stop-color='%23F4B248' offset='0%25'/%3e %3cstop stop-color='%23FFDD5F' offset='100%25'/%3e %3c/radialGradient%3e %3clinearGradient x1='50%25' y1='95.035%25' x2='50%25' y2='7.417%25' id='b'%3e %3cstop stop-color='%23F28A2D' offset='0%25'/%3e %3cstop stop-color='%23FDE86F' offset='100%25'/%3e %3c/linearGradient%3e %3clinearGradient x1='49.985%25' y1='-40.061%25' x2='49.985%25' y2='111.909%25' id='i'%3e %3cstop stop-color='%23482314' offset='0%25'/%3e %3cstop stop-color='%239A4111' offset='100%25'/%3e %3c/linearGradient%3e %3clinearGradient x1='52.727%25' y1='31.334%25' x2='28.964%25' y2='102.251%25' id='o'%3e %3cstop stop-color='%23F34462' offset='0%25'/%3e %3cstop stop-color='%23CC0820' offset='100%25'/%3e %3c/linearGradient%3e %3cpath d='M180 90c0 49.71-40.29 90-90 90S0 139.71 0 90 40.29 0 90 0s90 40.29 90 90z' id='a'/%3e %3cpath d='M108.947 95.828c-23.47-7.285-31.71 8.844-31.71 8.844s2.376-17.954-21.095-25.24c-22.57-7.004-36.253 13.757-37.307 26.812-2.264 28.103 22.134 59.996 31.26 70.86a8.062 8.062 0 008.34 2.584c13.697-3.777 51.904-16.242 66.009-40.667 6.54-11.328 7.06-36.188-15.497-43.193z' id='n'/%3e %3cpath d='M180.642 90c0 49.71-40.289 90-90 90-49.71 0-90-40.29-90-90s40.29-90 90-90c49.711 0 90 40.29 90 90z' id='w'/%3e %3c/defs%3e %3cg fill='none' fill-rule='evenodd'%3e %3cg fill-rule='nonzero'%3e %3cg transform='translate(.005 -.004)'%3e %3cuse fill='url(%23b)' xlink:href='%23a'/%3e %3cuse fill='url(%23c)' xlink:href='%23a'/%3e %3cuse fill='url(%23d)' xlink:href='%23a'/%3e %3cuse fill='url(%23e)' xlink:href='%23a'/%3e %3cuse fill='url(%23f)' xlink:href='%23a'/%3e %3cuse fill='url(%23g)' xlink:href='%23a'/%3e %3cuse fill='url(%23h)' xlink:href='%23a'/%3e %3c/g%3e %3cpath d='M109.013 66.234c-1.14-3.051-36.872-3.051-38.011 0-1.322 3.558 6.806 8.396 19.012 8.255 12.192.14 20.306-4.71 18.999-8.255z' fill='url(%23i)' transform='translate(.005 -.004)'/%3e %3cpath d='M68.006 46.125c.014 7.566-4.823 9.788-11.995 10.702-7.102 1.068-11.883-2.068-11.995-10.702-.099-7.256 3.81-16.116 11.995-16.284 8.17.168 11.981 9.028 11.995 16.284z' fill='url(%23j)' transform='translate(.005 -.004)'/%3e %3cpath d='M54.807 35.054c1.18 1.378.97 3.769-.479 5.358-1.448 1.575-3.571 1.744-4.753.366-1.181-1.378-.97-3.77.478-5.344 1.449-1.59 3.572-1.744 4.754-.38z' fill='%234E506A'/%3e %3cpath d='M112.022 46.125c-.014 7.566 4.823 9.788 11.995 10.702 7.102 1.068 11.883-2.068 11.995-10.702.099-7.256-3.81-16.116-11.995-16.284-8.184.168-11.995 9.028-11.995 16.284z' fill='url(%23k)' transform='translate(.005 -.004)'/%3e %3cpath d='M124.078 34.52c.957 1.547.38 3.881-1.293 5.217-1.674 1.336-3.797 1.181-4.753-.366-.957-1.546-.38-3.88 1.293-5.217 1.66-1.336 3.797-1.181 4.753.366z' fill='%234E506A'/%3e %3cpath d='M37.969 23.344c-2.349 1.983-.45 6.047 3.515 4.19 6.328-2.967 19.899-6.623 31.824-5.287 3.164.351 4.19-.113 3.487-4.022-.689-3.853-4.33-6.37-13.387-5.26-14.035 1.716-23.09 8.396-25.44 10.379z' fill='url(%23l)' transform='translate(.005 -.004)'/%3e %3cpath d='M116.592 12.952c-9.056-1.111-12.698 1.42-13.387 5.259-.703 3.91.323 4.373 3.487 4.022 11.925-1.336 25.481 2.32 31.824 5.287 3.965 1.857 5.864-2.207 3.515-4.19-2.348-1.97-11.404-8.649-25.439-10.378z' fill='url(%23m)' transform='translate(.005 -.004)'/%3e %3c/g%3e %3cg fill-rule='nonzero'%3e %3cuse fill='url(%23o)' xlink:href='%23n'/%3e %3cuse fill='url(%23p)' xlink:href='%23n'/%3e %3cuse fill='url(%23q)' xlink:href='%23n'/%3e %3cuse fill='url(%23r)' xlink:href='%23n'/%3e %3cuse fill='url(%23s)' xlink:href='%23n'/%3e %3cuse fill='url(%23t)' xlink:href='%23n'/%3e %3cuse fill='url(%23u)' xlink:href='%23n'/%3e %3cuse fill-opacity='.5' fill='url(%23v)' xlink:href='%23n'/%3e %3c/g%3e %3cg transform='translate(-.637 -.004)'%3e %3cmask id='y' fill='white'%3e %3cuse xlink:href='%23w'/%3e %3c/mask%3e %3cpath d='M15.52 86.231C9.642 80.508-.708 77.892-1.89 91.153c-.927 10.364 3.93 27.694 16.234 37.763C45.282 154.23 74.742 139.667 75.628 122c.699-13.932-15.502-12.327-20.648-12.045-.352.014-.507-.45-.197-.647a48.147 48.147 0 004.725-3.488c4.036-3.403 1.968-9.31-3.67-7.607-.858.253-14.583 4.359-23.288 1.068-9.872-3.726-11.053-7.214-17.03-13.05z' fill='url(%23x)' fill-rule='nonzero' mask='url(%23y)'/%3e %3cpath d='M161.081 88.2c3.502-6.778 9.066-4.401 12.194-3.359 4.61 1.537 7.353 4.4 7.353 11.572 0 17.001-2.812 32.765-17.002 48.6-25.987 28.982-69.935 25.143-73.675 6.862-3.094-15.16 13.066-16.678 18.34-17.381.365-.042.421-.605.098-.746a46.169 46.169 0 01-5.4-2.896c-5.444-3.403-3.989-10.051 2.405-9.07 6.806 1.012 15.23 2.924 22.486 2.207 21.009-2.11 24.975-19.87 33.201-35.789z' fill='url(%23z)' fill-rule='nonzero' mask='url(%23y)'/%3e %3c/g%3e %3c/g%3e %3c/svg%3e)
' xlink:href='%23b'/%3e%3cuse fill='black' filter='url(%23c)' xlink:href='%23b'/%3e%3cpath fill='white' d='M12.162 7.338c.176.123.338.245.338.674 0 .43-.229.604-.474.725a.73.73 0 01.089.546c-.077.344-.392.611-.672.69.121.194.159.385.015.62-.185.295-.346.407-1.058.407H7.5c-.988 0-1.5-.546-1.5-1V7.665c0-1.23 1.467-2.275 1.467-3.13L7.361 3.47c-.005-.065.008-.224.058-.27.08-.079.301-.2.635-.2.218 0 .363.041.534.123.581.277.732.978.732 1.542 0 .271-.414 1.083-.47 1.364 0 0 .867-.192 1.879-.199 1.061-.006 1.749.19 1.749.842 0 .261-.219.523-.316.666zM3.6 7h.8a.6.6 0 01.6.6v3.8a.6.6 0 01-.6.6h-.8a.6.6 0 01-.6-.6V7.6a.6.6 0 01.6-.6z'/%3e%3c/g%3e%3c/svg%3e)
Wenchien Lo
借分享
高北熊
謝謝老師無私分享