當前位置: 華文世界 > 科技

快速掌握AI演算法基礎:AI產品經理的「共同語言」入門指南

2024-02-10科技

AI產品經理或多或少都需要掌握一些演算法知識,那麽對於非相關專業的人員而言,該怎麽了解並快速入門AI演算法?這篇文章裏,作者以問答的形式總結了AI演算法領域的相關內容,或特許以幫到想成為AI產品經理的同學們,一起來看看吧。

作為AI產品經理,常會被問到核心競爭力是什麽,除了深度理解業務場景和專業的產品能力,掌握必要的AI演算法知識是AI產研溝通的「共同語言基礎」,所以市面上很多AI產品招聘的的條件都是演算法專業。

然而對於非相關專業的AI產品或者想要轉型AI產品的同學,演算法知識晦澀難懂,如何用很短的時間快速入門,讓你在AI領域更加遊刃有余。

Q:機器學習、深度學習、強化學習定義及經典演算法歸類

機器學習是一種利用演算法來讓電腦從數據中學習並改進的技術。它透過對大量數據進行訓練,使電腦能夠自動地發現數據中的規律和模式,並用這些規律和模式來預測新的數據或做出決策。經典演算法歸類:

歸因演算法:線性回歸、邏輯回歸等。線性回歸是一種透過找到最佳擬合直線來預測連續數值輸出的演算法。邏輯回歸則是一種用於二分類問題的演算法,它透過對輸入特征進行邏輯函數變換來預測樣本屬於某一類別的概率。

分類演算法:決策樹、樸素貝葉斯、支持向量機等。決策樹是一種基於樹形結構的分類演算法,它透過遞迴地劃分數據集來構建分類模型。樸素貝葉斯是一種基於貝葉斯定理的分類演算法,它假設特征之間相互獨立,從而簡化了分類問題的計算。支持向量機是一種二分類演算法,它透過找到最優超平面來將不同類別的樣本分開。

深度學習:機器學習的一個分支,它使用深度神經網絡來模擬人腦的學習過程。深度神經網絡是一種具有多層非線性變換的神經網絡,能夠自動地提取輸入數據的特征,並逐層抽象出高級別的表示。經典演算法歸類:

神經網絡:深度學習的核心演算法是神經網絡,包括前饋神經網絡、摺積神經網絡、迴圈神經網絡等。前饋神經網絡是一種最簡單的神經網絡形式,它透過多層感知器來實作輸入到輸出的對映。摺積神經網絡則是一種專門用於處理影像數據的神經網絡,它透過摺積層和池化層來提取影像特征。迴圈神經網絡則是一種用於處理序列數據的神經網絡,它透過記憶單元來捕捉序列中的時序資訊。

強化學習:是一種讓智能體透過與環境互動來學習策略的技術。在強化學習中,智能體透過感知環境狀態並采取行動來獲得獎勵或懲罰,並根據這些反饋來調整自己的策略,以最大化累積獎勵。經典演算法歸類:

值叠代演算法:Q-Learning、SARSA等。這些演算法透過估計每個狀態-動作對的價值來找到最優策略。Q-Learning是一種離策略演算法,它使用最大的預期獎勵來更新Q值。SARSA則是一種在策略演算法,它使用實際采取的行動來更新Q值。

策略梯度演算法:REINFORCE、Actor-Critic等。這些演算法直接對策略進行參數化,並透過梯度上升來最大化期望獎勵。REINFORCE是一種基於蒙特卡羅采樣的策略梯度演算法,它使用獎勵的累積和來更新策略參數。Actor-Critic則是一種結合了值函數和策略梯度的演算法,它同時使用值函數來估計狀態值,並使用策略梯度來更新策略參數。

Q:演算法、算子和模型的定義和區別

1. 定義

演算法:是一組明確規定的計算步驟,用於解決特定類別的問題或執行特定類別的計算。演算法通常獨立於任何特定的程式語言,但可以用任何程式語言來實作。

算子:在深度學習中,算子通常指的是一種特殊的函數或操作,用於對張量(多維陣列)執行某種計算。這些計算可以是線性的、非線性的或其他類別的數學運算。

模型:在機器學習和深度學習中,模型是一個透過學習過程從數據中得出的表示。這個表示可以是數學方程式、決策樹、神經網絡或其他形式,用於對新數據進行預測或分類。

2. 用途

演算法:用於指導電腦如何解決問題或執行計算。演算法本身不儲存數據,但可以對輸入的數據進行操作以產生輸出。

算子:在深度學習中,算子被用來構建神經網絡層和執行各種數學運算,以便從輸入數據中學習有用的表示。

模型:模型是從數據中學習得出的,用於對新數據進行預測或分類。模型可以看作是一種「知識」的表示,它捕獲了從訓練數據中學習到的模式和關系。

3. 靈活性

演算法:通常是固定的,但可以透過調整參數或選擇不同的演算法來最佳化效能。

算子:在深度學習中,可以透過組合不同的算子和層來建立各種復雜的神經網絡結構。

模型:模型的結構和參數可以在訓練過程中進行調整,以便更好地擬合數據。

總之,演算法、算子和模型在機器學習和深度學習中各自扮演著不同的角色。演算法提供了一組計算步驟來解決問題;算子在深度學習中用於執行數學運算和構建神經網絡;而模型則是從數據中學習得出的表示,用於對新數據進行預測或分類

Q:自然語言處理領域、大數據決策領域常見的算子都有哪些?

在自然語言處理領域:

文本清洗算子:用於去除文本中的無關字元、停用詞、特殊符號等,以凈化文本數據。

分詞算子:將文本切分成一個個獨立的詞語或標記,這是許多NLP任務的基礎。

詞性標註算子:為每個詞語賦予一個詞性標簽,如名詞、動詞、形容詞等,有助於理解詞語在句子中的作用。

命名實體辨識算子:辨識文本中的特定實體,如人名、地名、組織名等,對於資訊抽取和語意理解非常重要。

情感分析算子:分析文本表達的情感傾向,如積極、消極或中立,常用於輿情分析和產品評論挖掘等。

文本相似度計算算子:衡量兩個文本之間的相似程度,常用於資訊檢索、問答系統等領域。

文本嵌入算子:將文本轉換為向量表示,以便進行數學運算和機器學習模型的輸入。

在大數據決策領域:

數據聚合算子:對數據進行分組和匯總,計算總和、平均值、最大值、最小值等統計量,以了解數據的整體分布和特征。

數據過濾算子:根據特定條件篩選數據,只保留符合要求的記錄,有助於縮小數據分析範圍和提高分析效率。

數據排序算子:按照指定欄位對數據進行排序,以便更好地觀察數據的變化趨勢和異常情況。

數據連線算子:將不同來源或格式的數據進行關聯和整合,以便進行跨數據集的分析和挖掘。

預測算子:利用機器學習或統計模型對數據進行預測,預測未來趨勢或結果,為決策提供支持。

最佳化算子:在給定約束條件下尋找最優解或最優策略,常用於資源分配、路徑規劃等問題中。

這些算子在實際套用中可能需要根據具體問題和數據特點進行選擇和調整。同時,隨著技術的發展和創新,還可能出現更多新型算子來應對復雜多變的數據分析需求。

Q:自然語言處理領域、大數據決策領域、影像辨識領域常見的演算法都有哪些?

1. 自然語言處理領域常見的演算法

詞袋模型:這是最早的以詞為基本處理單元的文本向量化方法,透過構建一個包含語料庫中所有詞的詞典,將每個詞向量化,進而完成文本向量化。詞袋模型存在維度災難和語意鴻溝問題。

N-gram模型:N-gram是一種基於統計語言模型的演算法,克服了維度災難,並且大大提升了傳統語言模型的效能。

隱馬爾科夫模型(HMM):HMM是一種統計模型,用來描述一個含有隱含未知參數的馬爾科夫過程。其難點在於狀態轉移概率和每個狀態對應的觀察概率的確定。

條件隨機場(CRF):CRF是一種給定一組輸入隨機變量條件下另一組輸出隨機變量的條件概率分布模型,其特點是假設輸出變量之間相互獨立。CRF在自然語言處理中有廣泛的套用,如分詞、詞性標註、命名實體辨識等。

2. 大數據決策領域常見的演算法

決策樹演算法:決策樹是一種常見的分類演算法,透過對數據進行訓練和歸納,生成一顆樹狀的決策模型,用於對新數據進行分類和預測。

隨機森林演算法:隨機森林是一種基於決策樹的整合學習演算法,透過構建多個決策樹並結合它們的預測結果來提高模型的準確性和穩定性。

梯度提升決策樹(GBDT):GBDT是一種基於決策樹的叠代式整合學習演算法,透過不斷地擬合殘留誤差來最佳化模型的效能。

邏輯回歸演算法:邏輯回歸是一種廣義的線性回歸模型,常用於二分類問題。透過邏輯函數將線性回歸的結果對映到(0,1)之間,得到樣本點屬於某一類別的概率。

支持向量機(SVM):SVM是一種基於統計學習理論的分類演算法,透過尋找一個超平面來最大化正負樣本之間的間隔,從而實作分類。

3. 影像辨識領域常見的演算法

深度學習演算法:

摺積神經網絡(CNN):CNN是深度學習領域中最常用的演算法之一,特別適用於影像辨識任務。它透過摺積層、池化層和全連線層等結構,能夠自動提取影像特征並進行分類或辨識。迴圈神經網絡(RNN)及其變體:RNN適用於處理序列數據,如時間序列影像或影片流。它的變體,如長短時記憶網絡(LSTM)和門控迴圈單元(GRU),能夠更好地處理長期依賴關系,適用於復雜的影像辨識任務。

機器學習演算法:

支持向量機(SVM):SVM是一種經典的分類演算法,透過在高維空間中尋找最優超平面來分類影像。它對於小樣本、高維數據和非線性問題具有較好的處理能力。

決策樹和隨機森林:決策樹是一種基於樹形結構的分類演算法,易於理解和實作。隨機森林則是多個決策樹的整合,透過投票機制來提高分類效能。這些演算法在影像辨識中通常用於特征選擇和分類器的構建。

樣版匹配演算法:樣版匹配是一種基於像素比較的影像辨識方法。它透過比較輸入影像與預定義樣版之間的相似度來辨識目標物件。常見的樣版匹配演算法包括二維摺積和相關系數法等。

基於角點的演算法:角點是影像中重要的局部特征之一,基於角點的演算法透過檢測影像中的角點並進行匹配來實作影像辨識。常見的基於角點的演算法包括Harris角點檢測、SIFT(尺度不變特征變換)和SURF(加速魯棒特征)等。

Q:LightGBM 和XG boost演算法的區別

LightGBM和XGBoost都是基於梯度提升決策樹(GBDT)的演算法,但它們在實作方式、記憶體消耗和訓練速度等方面存在一些差異。

演算法實作方式:XGBoost使用基於預排序的決策樹演算法,而LightGBM則使用基於直方圖的決策樹演算法。直方圖演算法將連續的特征值分桶離散化為一系列的bin,這降低了記憶體消耗並提高了訓練速度。

決策樹生長策略:XGBoost采用按層生長(level-wise)的策略,這種方式方便平行計算每一層的分裂節點,提高了訓練速度,但同時也因為節點增益過小增加了很多不必要的分裂。而LightGBM則使用帶有深度限制的按葉子生長(leaf-wise)策略,這種策略減少了計算量,配合最大深度的限制防止過擬合,但由於每次都需要計算增益最大的節點,所以無法並列分裂。

記憶體消耗:XGBoost在預排序後需要記錄特征值及其對應樣本的統計值的索引,這導致了較大的記憶體消耗。而LightGBM則采用了直方圖演算法將儲存特征值轉變為儲存bin值,降低了記憶體消耗。此外,LightGBM在訓練過程中采用互斥特征捆綁演算法減少了特征數量,進一步降低了記憶體消耗。

類別特征處理:LightGBM支持類別特征,不需要進行獨熱編碼處理,而XGBoost則需要將類別特征轉換為數值特征才能進行處理。

總的來說,LightGBM相對於XGBoost在記憶體消耗和訓練速度方面有一定的優勢,尤其是在處理大規模數據集時。然而,具體選擇哪種演算法還需要根據具體的問題和數據集來進行評估。

Q:LSTM和light GBM的組合套用

LSTM(長短期記憶網絡)和LightGBM是兩種不同的機器學習模型,它們分別套用於不同的場景,並且沒有直接的關聯關系。

LSTM是一種遞迴神經網絡(RNN)的變體,特別適合處理序列數據,如時間序列預測、自然語言處理等。它能夠捕捉序列中的長期依賴關系,透過記憶單元和門結構來控制資訊的流動。

LightGBM則是一種梯度提升決策樹(GBDT)的改進實作,是一種快速、高效、分布式的梯度提升框架,用於處理大規模數據集並進行分類或回歸任務。它采用基於樹的學習演算法,透過構建多個弱學習器並將其組合成一個強學習器來提高效能。

盡管LSTM和LightGBM是兩種不同的模型,但在某些套用中,它們可以結合使用以發揮各自的優勢。例如,在時間序列預測任務中,可以先使用LightGBM進行特征選擇和基礎模型的構建,然後將處理後的特征輸入到LSTM模型中進行序列預測。這種結合可以充分利用LightGBM在處理大規模數據和特征選擇方面的優勢,以及LSTM在處理序列數據和捕捉長期依賴關系方面的能力。然而,這種結合並不是LSTM和LightGBM之間的直接關系,而是它們在特定任務中的協同套用

Q:大模型的RAG定義

RAG,即Retrieval-Augmented Generation,中文轉譯為檢索增強生成,是一種技術,旨在透過從資料來源中檢索資訊來輔助大語言模型(Large Language Model, LLM)生成答案,RAG 結合了搜尋技術和大語言模型的提示詞功能。當向模型提出問題時,它會利用搜尋演算法找到相關資訊作為背景上下文。這些查詢和檢索到的上下文資訊隨後被整合進發送給大語言模型的提示中,從而使其能夠生成準確且符合上下文的答案。

這種技術為大模型提供了外部知識源,這有助於它們生成更準確、更相關的內容,同時減少了模型可能產生的錯誤或不符合實際的資訊。隨著技術的不斷進步,RAG 和類似的方法在增強大語言模型的功能和實用性方面發揮著越來越重要的作用。

Q:RAG和向量知識庫結合使用的技術方案

將RAG(檢索增強生成)與向量知識庫結合使用的技術方案,可以充分發揮兩者在數據處理和資訊檢索方面的優勢,提高大模型的效能和實用性。

在這種技術方案中,向量知識庫以向量方式構建,能夠儲存超大規模的向量數據。這種設計提供了強大的儲存和處理能力,使其能夠應對大規模數據的儲存和查詢需求。同時,RAG架構保障了知識庫在不影響存取速度的前提下,擁有了近乎無限的可延伸性。

在具體實作上,當使用者輸入問題時,RAG技術將問題與知識庫中的私有數據進行匹配,獲取相關知識片段。然後,透過預訓練的大語言模型,用提取到的知識片段來增強對問題的回答生成過程。在這個過程中,向量知識庫提供了高效的儲存和查詢支持,使得RAG技術能夠快速地獲取到相關的知識片段,並將其整合到回答生成過程中。

這種技術方案可以套用於各種需要大規模數據處理和資訊檢索的場景,如智能客服、智能問答、智能推薦等。透過將RAG與向量知識庫結合使用,可以大大提高大模型的效能和實用性,為使用者提供更加準確、高效、便捷的服務。

Q:RAG、向量知識庫、知識圖譜如何結合使用?

將RAG(檢索增強生成)、向量知識庫和知識圖譜結合使用,可以構建一個強大且高效的知識處理和問答系統。

知識儲存與表示:

向量知識庫:用於儲存大量的知識,其中每個知識條目都被表示為向量形式。這種表示方法有助於高效地檢索和匹配知識。

知識圖譜:提供結構化的知識表示,透過圖形化的方式展示知識之間的關聯和層次關系。知識圖譜可以用於補充和豐富向量知識庫的內容,提供額外的上下文和結構資訊。

問題處理與理解:

當使用者提出問題時,系統首先利用自然語言處理技術對問題進行解析和理解,提取關鍵資訊。

然後,系統可以利用RAG技術,根據問題的內容和上下文,從向量知識庫中檢索相關的知識向量。

同時,系統也可以查詢知識圖譜,獲取與問題相關的結構化知識和關聯資訊。

答案生成與最佳化:

結合檢索到的知識向量和知識圖譜中的資訊,系統可以生成初步的答案。

利用RAG的生成能力,系統可以對初步答案進行潤色和最佳化,使其更符合自然語言的表達習慣,並增加相關的解釋和上下文資訊。

如果需要,系統還可以根據知識圖譜中的關聯資訊,為使用者提供額外的相關知識和建議。

透過這種結合使用方案,可以充分發揮RAG、向量知識庫和知識圖譜在知識處理和問答方面的優勢,提高系統的效能、準確性和使用者滿意度。同時,這種方案也具有較強的可延伸性和靈活性,可以根據具體的套用場景和需求進行調整和最佳化。

Q:生成式AI的主流演算法及套用領域

生成式AI的主流演算法及套用領域包括BERT、Transformer、T5、Clip、DELL、Stable Diffusion等。以下是這些演算法的簡述及其套用領域:

BERT(Bidirectional Encoder Representations from Transformers):BERT是一種基於Transformer的預訓練語言模型,它透過無監督的方式學習大量文本數據中的語言表示。BERT在自然語言處理領域具有廣泛的套用,如文本分類、命名實體辨識、問答系統等。

Transformer:Transformer是一種基於自註意力機制的深度學習模型,最初用於自然語言處理任務。由於其平行計算能力和全域資訊捕捉能力,Transformer也被套用於影像和語音處理領域。在自然語言生成方面,Transformer可以生成高質素的文本,如文章、對話等。

T5(Text-to-Text Transfer Transformer):T5是一種基於Transformer的文本生成模型,它將所有NLP任務轉化為文本生成任務。T5可以處理多種類別的輸入和輸出,如文本分類、摘要生成、轉譯等。由於其通用性和靈活性,T5在自然語言處理領域具有廣泛的套用前景。

Stable Diffusion:Stable Diffusion是一種用於影像生成的擴散模型。擴散模型是一種生成式模型,透過逐步向隨機雜訊中添加結構來生成高質素的影像。Stable Diffusion可能是一種改進或最佳化的擴散模型,旨在提高影像生成的穩定性和質素。它可以套用於影像生成、影像修復、風格遷移等任務。

Diffusion Models(擴散模型):除了Stable Diffusion之外,還有其他擴散模型如DALL-E 2和Imagen等,它們在文生圖領域取得了顯著進展。這些模型透過逐步去噪過程從隨機雜訊中生成影像,能夠生成高質素、高分辨率的影像,並具有一定的語意理解能力。

DALL·E 3:OpenAI開發的一種先進的影像生成模型,它基於Transformer模型並采用編碼器-解碼器結構。透過自監督學習和大規模數據集訓練,能夠將使用者提供的文本描述轉化為具有豐富細節和創意的影像,實作了高度精確的影像生成。采用了先進的擴散模型技術,透過逐步添加雜訊並學習去噪過程,生成了更加逼真和多樣化的影像。可以用於創意設計、藝術生成、影像編輯、虛擬現實等領域。DALL·E 3還可以與其他生成式AI技術相結合,如自然語言處理和語音辨識,以建立更加綜合和智能的套用。

Clip(Contrastive Language–Image Pre-training):Clip是一種多模態預訓練模型,旨在學習影像和文本之間的跨模態表示。Clip可以套用於影像分類、影像檢索、視覺問答等任務,透過將影像和文本資訊融合,實作更準確的語意理解和推理。

GANs(生成對抗網絡):GANs由兩個神經網絡組成,一個生成器和一個判別器,它們在對抗中共同學習。生成器的任務是生成看起來真實的假數據,而判別器的任務是區分真實數據和生成器生成的假數據。GANs在影像生成、影像超分辨率、風格遷移等領域有廣泛套用。

Q:擴散模型、Transformer模型、對抗模型在生成式AI中的套用領域及結合套用

擴散模型的套用領域:

影像生成:擴散模型在影像生成領域取得了顯著的成功。透過逐步向隨機雜訊中添加結構,擴散模型能夠生成高質素、高分辨率的影像。這種方法在影像去噪、影像超分辨率等任務中也表現出色。

Transformer模型的套用領域:

文本生成:Transformer模型在文本生成任務中表現出色。由於其自註意力機制,Transformer能夠捕捉長距離依賴關系,生成連貫、有邏輯的文本。它在機器轉譯、文本摘要、對話生成等任務中廣泛套用。

影像生成:近年來,Transformer模型也被引入到影像生成領域。透過將影像劃分為一系列小塊,並將這些小塊作為序列輸入到Transformer中,可以實作影像的生成。這種方法在生成高質素影像、處理大規模影像數據集等方面具有潛力。

對抗模型(GANs)的套用領域:

影像生成:GANs在影像生成領域具有廣泛套用。透過生成器和判別器之間的對抗訓練,GANs能夠生成逼真、多樣化的影像。它在人臉生成、風格遷移、影像修復等任務中表現出色。

文本生成:盡管GANs在文本生成方面的套用相對較少,但也有一些研究工作嘗試將GANs套用於文本生成任務。例如,透過生成對抗網絡來生成對話、詩歌等文本內容。

擴散模型與Transformer的結合:擴散模型和Transformer可以結合使用,以充分利用它們在生成任務中的優勢。例如,在影像生成任務中,可以先使用擴散模型生成初步的影像結構,然後再利用Transformer對影像進行細化和增強,以生成更高質素的影像。

Transformer與GANs的結合:Transformer和GANs也可以結合使用,以改進生成任務的效果。例如,在文本生成任務中,可以利用Transformer生成初步的文本內容,然後再透過GANs對生成的文本進行對抗訓練,以提高生成文本的質素和多樣性。

Q:影像生成模型DALL·E 3、Stable Diffusion和 GAN不同點

演算法原理:

DALL·E 3:基於Transformer模型並采用編碼器-解碼器結構,透過自監督學習和大規模數據集訓練來生成影像。它利用文本和影像的聯合嵌入空間,實作了文本到影像的轉換。

Stable Diffusion:是一種擴散模型,透過逐步向隨機雜訊中添加結構來生成高質素的影像。它學習一個條件概率分布,描述在給定當前雜訊數據的情況下,下一個雜訊水平的數據分布,並逐步將雜訊移除,生成接近目標數據分布的樣本。

GAN(生成對抗網絡):由生成器和判別器組成,透過對抗訓練來學習真實數據的分布。生成器負責生成假數據,而判別器負責區分真實數據和生成器生成的假數據。透過競賽競爭,生成器逐漸學會生成與真實數據相似的新數據。

訓練過程:

DALL·E 3和Stable Diffusion在訓練過程中主要依賴於大規模的預訓練數據集,透過自監督學習或條件概率分布來學習生成影像。

GAN則需要同時訓練生成器和判別器,透過競賽競爭來不斷最佳化生成器的效能。

生成結果:

由於演算法原理的不同,DALL·E 3、Stable Diffusion和GAN在生成結果上可能存在一定的差異。例如,DALL·E 3在影像的連續性和對提示詞的理解方面相對較好;Stable Diffusion可以生成更真實、更清晰的影像;而GAN生成的影像可能具有一定的多樣性和創造性,但也可能出現一些不穩定的結果。

Q:生成式AI技術其他的進展

VQ-VAE(向量量化-變分自編碼器):VQ-VAE是一種結合了向量量化和變分自編碼器的生成模型,它學習將輸入數據編碼為離散的潛在表示,並能夠從這些表示中重建數據。VQ-VAE在影像生成、語音合成等領域有套用。

多模態生成模型:隨著多模態數據的普及,多模態生成模型也受到了越來越多的關註。這類模型能夠處理不同模態的數據,如文本、影像、音訊等,並學習它們之間的聯合表示。多模態生成模型可以套用於跨模態檢索、多媒體描述生成、影片生成等任務。

超大規模預訓練模型:隨著計算資源的不斷增加,超大規模預訓練模型成為生成式AI領域的一個重要趨勢。這些模型在大量無標註數據上進行預訓練,學習通用的語言或影像表示,然後可以在各種下遊任務上進行微調。大規模預訓練模型顯著提高了生成式AI的效能和泛化能力。

可解釋性和可控性:生成式AI技術的可解釋性和可控性也受到了越來越多的關註。研究者們致力於開發能夠解釋模型生成結果的原因和方式,並提供對生成過程的控制手段。這對於確保生成式AI技術的可靠性和安全性至關重要。

AI代理:另一個由大型語言模型(LLM)技術驅動的新興領域是幫助人做決策的AI代理,如在遊戲、機器人等領域的套用。這些AI代理能夠理解並響應人類的指令,協助人類完成各種任務。

本文由 @甜甜圈 Tina 原創釋出於人人都是產品經理,未經作者特許,禁止轉載。

題圖來自Unsplash,基於CC0協定。

該文觀點僅代表作者本人,人人都是產品經理平台僅提供資訊儲存空間服務。