2026.5.13-15
國家會展中心(上海)距2026年展會還剩
天 時 分服裝制造業(yè)必須認知AI大模型及其應用
作者 | 聞力生
中國服裝智能制造聯(lián)盟專家組 副組長
東華大學教授
2023年4月28日和5月5日黨中央工作會議上提出了關于人工智能發(fā)展的三個第一次,即:第一次提出“通用人工智能”,第一次提出“產(chǎn)業(yè)智能化”,第一次提出“要把握人工智能等新科技革命浪潮”, 可見黨中央對人工智能AI發(fā)展十分重視。
根據(jù)AI當前發(fā)展情況來看,我們現(xiàn)在已經(jīng)處在AI大模型時代,大模型各種各樣,其參數(shù)規(guī)模不斷提升,行業(yè)應用不斷拓展,從整體來看, AI大模型不僅可以生成文字、可以生成圖片,而且可以生成代碼,構建人機交互新模式,它還能與產(chǎn)品研發(fā)、工藝設計、生產(chǎn)作業(yè)、產(chǎn)品運營等制造環(huán)節(jié)、場景相結合,提高生產(chǎn)效率,形成新的生產(chǎn)力,從而引發(fā)整個產(chǎn)業(yè)格局的重構。
那么什么是AI大模型呢?它在我們服裝制造業(yè)進行智能化轉型中又有什么作用呢?
AI大模型定義及其相關概念
(1)AI大模型定義與類型:
AI大模型是指具有巨大參數(shù)量規(guī)模的人工智能模型,這些模型通過機器學習和深度學習的技術來學習和理解龐大的數(shù)據(jù)量。這些模型能夠解決多種任務,適應不同的業(yè)務場景和語言環(huán)境,并且能夠不斷進行訓練和優(yōu)化,以實現(xiàn)更高效、更準確的語義理解和應用。
目前市場上公司及研究院校所等發(fā)布的AI大模型一般參數(shù)量是從10億參數(shù)到上千億參數(shù),根據(jù)我國科技部2023年的統(tǒng)計,中國10億參數(shù)量規(guī)模以上的大模型已發(fā)布了79個,美國發(fā)布已超過100個。
AI大模型有自然語言處理、計算機視覺和語音識別三個大領域,見圖一。正因為有了這三個大領域,才構成了人工智能的豐富世界,它們也才能夠讓機器更深入地理解我們的語言、圖像和聲音,從而為我們?nèi)祟愄峁└悄?、更便捷的服務?/p>
圖一 AI大模型領域
在這三個領域中以大語言模型LLM(Large Language Model)和計算機視覺大模型CV(Computer Vision)較為常見。LLM大模型主要用于處理自然語言任務,如文本生成、情感分析、問答系統(tǒng)等。這類模型通過對大量文本數(shù)據(jù)進行訓練,學習到了語言的語法、語義和上下文相關性,從而能夠理解和生成自然語言文本;CV大模型,即計算機視覺模型,主要用于處理圖像和視頻相關的任務,如圖像分類、目標檢測、人臉識別等。
這類模型通過對大量圖像數(shù)據(jù)進行訓練,學習到了圖像的特征表示和分類規(guī)則,從而能夠進行圖像的分類和目標檢測等任務。除此之外還有自然語言處理NLP大模型和強化學習RL大模型也是常見的AI大模型類型,但它們的應用范圍相對較窄。NLP大模型主要用于自然語言處理任務,如文本摘要、機器翻譯等;而RL大模型主要用于強化學習任務,通過與環(huán)境的交互學習最優(yōu)策略??偟膩碚f,AI大模型的應用取決于具體的任務和場景,不同類型的模型各有其優(yōu)勢和局限性。
當前典型的LLM大模型包括我們熟悉的OpenAI的GPT系列、Google的BERT模型等。在已經(jīng)過去的2023 年,最具影響的 GPT-4、ChatGPT 憑一己之力掀起了 AI 領域的熱潮,火爆全球。特別是ChatGPT 入選了2023 年度《Nature》十大人物(Nature’s 10),這是有史以來第一次以一個“計算機程序”——非人類實體作為人物入選。同時,我國國家語言資源監(jiān)測與研究中心、商務印書館等單位聯(lián)合主辦的“漢語盤點2023”公布的年度國際詞,同樣是ChatGPT。ChatGPT讓大模型席卷全球,大模型被全球科技領袖定義為一次顛覆式科技革命。
我曾經(jīng)說過,GPT是英文字首(Generative Pre-trained Transformer),可以叫“生成性預訓練變換模型”,也可以叫“生成性人工智能”,是基于自然語言處理NLP基礎上發(fā)展起來的大數(shù)據(jù)、大算力、大模型?,F(xiàn)在的GPT就是新一代人工智能發(fā)展的代表,它可以說是以現(xiàn)在的機器學習和深度學習等為主體,在其基礎上參考人腦的計算機制,構建機器的學習和推理智能系統(tǒng),這些都是在Transformer模型基礎上發(fā)展起來的,見圖二。
圖二 LLM大模型發(fā)展的基礎
Transformer 模型是深度學習中的一種神經(jīng)網(wǎng)絡模型,該模型2017年是由 Google開源的,目前Transformer 模型已經(jīng)成為自然語言處理領域中最流行的模型之一。Transformer架構是一種基于自注意力機制的神經(jīng)網(wǎng)絡架構,它在處理序列數(shù)據(jù)和建模語言相關性方面表現(xiàn)出色,見圖三。
圖三 Transformer 模型架構(英中文)
由圖可見,Transformer架構由編碼Encoder和解碼Decoder兩部分組成,每部分均可堆疊多層,其工作流程分下面五步:①輸入處理--將輸入序列通過Embedding(嵌入技術)層轉化為向量,并加上位置編碼;②Encoder編碼處理--經(jīng)過多頭自注意力層和前饋神經(jīng)網(wǎng)絡層,輸出編碼后的向量;③Decoder解碼處理--在解碼階段,除了自注意力機制外,還引入Encoder-Decoder Attention(編碼器-解碼器注意力),使Decoder能夠關注Encoder的輸出;④輸出生成--通過線性層和softmax函數(shù),將Decoder的輸出轉化為預測詞匯的概率分布;⑤輸出應用。
這里要注意的是雖然先進的大模型確實使用了Transformer架構作為基礎,但并非所有的大模型都是基于Transformer架構構建的。事實上,有許多其他的架構也被廣泛應用于大模型的構建,這些架構根據(jù)任務和領域的不同而有所差異。例如,卷積神經(jīng)網(wǎng)絡(CNN)在圖像處理領域中被廣泛使用,循環(huán)神經(jīng)網(wǎng)絡(RNN)在處理序列數(shù)據(jù)和自然語言生成中得到了廣泛應用等等。
根據(jù)大語言模型LLM用途來分,它還可以分為通用大語言模型LLM和專業(yè)用大語言模型LLM, 專業(yè)用大模型又有它的獨特構建方式,見圖四。
圖四 大語言模型LLM分類(圖源:coggle)
(2)大語言模型LLM的構建流程
我們通常所使用的大語言模型LLM的構建流程是以OpenAI推出的流程為代表的,其流程如圖五所示。它主要包含四個階段:預訓練、有監(jiān)督微調(diào)、獎勵建模、強化學習。這四個階段都需要不同規(guī)模數(shù)據(jù)集合、不同類型的算法,產(chǎn)出不同類型的模型,所需要的資源也有非常大的不同。
圖五 大語言模型構建流程
(3) 國內(nèi)外著名的大語言模型LLM
目前大語言模型LLM的發(fā)展表現(xiàn)如下:在國外,首當其沖的是OpenAI推出的基于GPT-4 的大型語言模型 ChatGPT,其次是Google、Microsoft、Meta和NVIDIA等推出的大型語言模型;在國內(nèi)目前有百度、金山、智譜、百川、字節(jié)、商湯、中科院(紫東太初)等企業(yè)和機構等推出的大模型,見圖六。但經(jīng)過最近的幾個月發(fā)展,國內(nèi)大模型發(fā)展比較有名的已有十五家之多,見圖七
圖六 國內(nèi)外著名的大語言模型
圖七 國內(nèi)目前著名的大模型
(4)語言大模型LLM與多模態(tài)大模型
所謂多模態(tài)大模型是指一種能夠處理多種類型數(shù)據(jù)的機器學習模型,如文本、圖像、音視頻數(shù)據(jù)等,并在這些數(shù)據(jù)之間建立關聯(lián)。因為我們?nèi)祟惿钤谝粋€多模態(tài)信息數(shù)據(jù)構成的世界,需要通過視覺、聽覺、觸覺、嗅覺等感官來接收和理解外部的信息,或者通過語言、文字、圖畫、音樂等方式來表達和傳遞信息,所以我們十分需要多模態(tài)大模型。
但是在人工智能的發(fā)展歷史上,大多數(shù)的模型都是基于單一模態(tài)的數(shù)據(jù)來進行學習和推理的,那么除了多模態(tài)大模型之外,有沒有一個單一模態(tài)的大模型發(fā)展成為多模態(tài)大模型呢?回答是有的。其實,語言大模型LLM通常就被認為具有多模態(tài)特征,因為它可以處理不僅僅是文本數(shù)據(jù),還包括語音、圖像和其他類型的數(shù)據(jù)。這意味著大型語言模型(LLM)可以看作是處理多模態(tài)數(shù)據(jù)的一種形式,特別是當這些模型被用于理解或生成不同模態(tài)(如視覺、語音等)的信息時。
例如,多模態(tài)大型語言模型(MLLM)可以利用大型語言模型(LLM)作為大腦來執(zhí)行多模態(tài)任務。當它們擴展到多模態(tài)數(shù)據(jù)時,它們能夠處理和理解來自不同源的信息,例如圖像、音頻和視頻。但需要注意的是,雖然LLM大模型可以處理多模態(tài)特征,但它在處理視覺數(shù)據(jù)方面可能沒有專門設計的CV大模型的性能和精確度。所以,對于特別側重于視覺處理的任務,使用專門設計的CV大模型可能更適合。
(5)生成式AI、AIGC和LLM三者的區(qū)別
生成式AI、AIGC和LLM三者都是人工智能領域的重要分支,各自展現(xiàn)了獨特的魅力和功能,但它們各自有不同的側重點和應用場景。
生成式AI(Generative AI)是指能夠模擬人類智能生成新的、真實的、有用的信息的AI技術。這種技術通過學習大量的數(shù)據(jù),能夠生成與現(xiàn)實世界類似的新圖像、音頻、視頻等。例如,生成式AI可以用于藝術創(chuàng)作、文本生成、音樂制作等領域;AIGC(Artificial Intelligence Generated Content)是人工智能領域的一個新概念,它指的是由人工智能生成的符合用戶需求和偏好的內(nèi)容。這種內(nèi)容可以是文本、圖像、音頻、視頻等各種形式。AIGC是AI領域的技術集合,包括深度學習、機器學習、自然語言處理等。
AIGC更側重于生成全新的、原創(chuàng)的內(nèi)容,往往具有更高的創(chuàng)新性和獨特性;LLM(Large Language Model)是大型語言模型,是一種基于深度學習技術的自然語言處理模型。它能夠理解和生成人類語言,包括文本、語音等。LLM通常被用于自然語言處理任務,如機器翻譯、文本生成、情感分析等??傊墒紸I、AIGC和LLM三者的區(qū)別在于它們的側重點和應用場景。生成式AI側重于模擬人類智能生成新的信息,AIGC側重于生成全新的、原創(chuàng)的內(nèi)容,而LLM則是一種基于深度學習技術的自然語言處理模型。
(6)大語言模型 LLM與智能助理(或智能代理)AI Agent
AI Agent的正確名稱是人工智能代理(Artificial Intelligence Agent),它是一個能夠感知環(huán)境、進行決策和執(zhí)行動作的智能實體, 它不同于傳統(tǒng)的人工智能,它是一個復雜的AI系統(tǒng),它能通過感知信息、處理信息、執(zhí)行任務和輸出結果等步驟,實現(xiàn)從感知到行動的完整過程。
而AI Agent則通過利用LLM的這些能力,進一步與環(huán)境交互、主動決策并執(zhí)行各種任務。因此,LLM是AI Agent的核心組成部分,它為AI Agent提供了驅動和支撐。
由AI與人類的交互模式發(fā)展來看(見圖八),AI Agent模式能夠自主調(diào)用資源完成任務,人類在其中只起到設立目標、監(jiān)督結果和評估的作用??梢夾I Agent能具有更廣泛的應用范圍,可處理多個任務,并能在不同領域中執(zhí)行各種功能行動;它還具有更自然和靈活的交互方式,能夠理解復雜的自然語言指令,與用戶進行更智能的對話等。
圖八 AI Agent與人類的交互模式(圖源:網(wǎng)絡)
AI Agent通常還被視為是大模型落地業(yè)務場景的主流形式, 是企業(yè)構建智能的未來,也是人類的理想智能助手。根據(jù)IDC調(diào)研顯示:所有受訪企業(yè)都認為AI Agent是發(fā)展的方向,現(xiàn)在有 50%的企業(yè)已經(jīng)在某項工作中進行了AI Agent的試點,另有34%的企業(yè)正在制定AI Agent的應用計劃,見圖九。
圖九AI Agent在企業(yè)應用
(7)SORA與LLM關系
OpenAI 在 2024 年 2 月16 日發(fā)布了 Sora,這是一個文本到視頻的生成 AI 模型,能夠根據(jù)文本提示生成現(xiàn)實或富有想象力的場景視頻。Sora本身是一個專門設計用于視頻生成和處理的模型,其重點在于將文本描述轉化為視覺內(nèi)容。它并不是直接依賴LLM來生成視頻內(nèi)容的。相反,Sora使用其內(nèi)部的深度學習架構和算法來將文本轉化為視覺元素,并生成最終的視頻輸出。
在SORA文生視頻架構中,LLM大模型常被用作文本到視頻生成的核心組件。LLM大模型可以接受文本輸入,并生成對應的文字描述或說明,作為視頻生成的基礎。通過將LLM大模型與其他圖像處理和動畫生成技術結合起來,可以實現(xiàn)基于文本的視頻生成。因此,SORA文生視頻架構和LLM大模型之間存在一定的關聯(lián),LLM大模型是視頻生成的重要組成部分之一。
(8)大模型訓練面臨的挑戰(zhàn)與解決之道
雖然大型語言模型 (LLM) 徹底改變了自然語言處理和理解領域,實現(xiàn)了跨各個領域的廣泛人工智能應用。然而部署 LLM 應用程序也面臨著一系列挑戰(zhàn),例如:在數(shù)據(jù)算法算力的資源挑戰(zhàn);訓練環(huán)境與能源的挑戰(zhàn);大模型產(chǎn)生的勾覺及偏見等等的挑戰(zhàn),見圖十。
圖十 大模型訓練面臨的挑戰(zhàn)(圖源--數(shù)字化助推器)
目前解決大模型訓練所面臨的挑戰(zhàn)有下面一些方法:例如為了解決算法算力等問題可以使用更高效的硬件,如GPU、TPU(張量處理單元)或ASIC(應用特定集成電路);通過將模型訓練分散到多個計算節(jié)點上進行分布式訓練,可以顯著加快訓練速度;利用優(yōu)化算法以減少所需的計算量等; 使用可再生能源為數(shù)據(jù)中心供電,以降低能源消耗和減少碳排放等等。
除此之外還常用搜索增強生成(RAG--Retrieval Augmentation Generation)、微調(diào)(Fine-tuning)和提示工程(Prompt Engineering)來解決在大型語言模型(LLM)的訓練和應用中出現(xiàn)的不同問題。所謂LLM微調(diào)是一個將預訓練模型在較小、特定數(shù)據(jù)集上進一步訓練的過程,目的是精煉模型的能力,提高其在特定任務或領域上的性能。微調(diào)的目的是將通用模型轉變?yōu)閷S媚P?,彌合通用預訓練模型與特定應用需求之間的差距,確保語言模型更貼近人類的期望。而所謂搜索增強生成RAG,它是微調(diào)的一種替代方法,它結合了自然語言生成和信息檢索。RAG確保語言模型通過外部最新知識或相關文檔提供信息來源。這種技術彌合了通用模型廣泛知識與最新知識信息需求之間的差距,RAG是事實隨時間演變情況下的重要技術。
通過應用搜索增強生成可以解決以下問題:①通過應用搜索增強生成可以解決長尾知識問題——大型語言模型往往在處理常見的、頻繁出現(xiàn)的問題時表現(xiàn)良好,但在處理長尾、罕見或特定領域的問題時可能會遇到困難。通過增強檢索,可以將模型與外部知識源(如數(shù)據(jù)庫、互聯(lián)網(wǎng)等)結合起來,以提供準確的信息和上下文;②通過應用搜索增強生成可以提高非幻覺率——如前所述,大型語言模型有時會產(chǎn)生誤導性的、不真實的或“幻覺”的回答可以通過增強檢索,驗證模型的回答,確保它們基于可靠和準確的信息;③通過應用搜索增強生成可以提高效率和響應速度——對于某些問題,直接檢索相關信息可能比從頭開始生成回答更為高效。這可以減少計算時間并提高系統(tǒng)的響應速度。
同樣, 通過應用微調(diào)可以解決以下問題:①通過微調(diào)可以使大模型適應特定任務或領域——微調(diào)是一種使大型預訓練模型適應特定任務或數(shù)據(jù)集的方法。通過微調(diào),模型可以學習特定領域的細節(jié)和規(guī)則,從而在該領域表現(xiàn)得更好;②通過微調(diào)可以使大模型型減少偏見和勾覺——微調(diào)可以幫助模型減少在特定數(shù)據(jù)集上的偏見和過擬合;③通過在具有多樣性和代表性的數(shù)據(jù)集上進行微調(diào),模型可以學習更普遍和可泛化的特征;④通過微調(diào)可以使大模型型提高性能和效率——微調(diào)通常可以提高模型在特定任務上的性能,因為它允許模型專注于學習與該任務最相關的特征。這可以減少計算資源和能源消耗,同時提高模型的準確性和效率。
同樣,提示及提示工程(Prompt Engineering)在大型模型訓練中的作用主要體現(xiàn)在以下幾個方面:
①通過提示及提示工程可以引導模型理解和生成——提示工程通過設計和優(yōu)化輸入提示詞,引導模型生成高質(zhì)量、準確和有針對性的輸出。這些提示詞實質(zhì)上是我們發(fā)給大模型的輸入(指令),模型會根據(jù)這些指令,結合其預訓練的“知識”,輸出與指令相關的內(nèi)容;
②通過提示及提示工程可以提高模型性能——對于基于轉換器的大型語言模型(如OpenAI的GPT系列),輸入提示在提高模型理解、回答問題、生成有用輸出等方面具有關鍵作用。通過構建清晰、簡潔的問題,提供必要的上下文信息,或者使用間接、分步的引導方式,提示工程可以幫助模型更好地理解問題并生成更有價值的回答;
③通過提示及提示工程可以促進人機交互——提示工程也是一種人機交互的方式。通過高質(zhì)量的提問,我們可以引導模型生成我們想要的輸出,這對于開發(fā)用戶友好、易于交互的AI系統(tǒng)具有重要意義。
最后,還需注意大模型LLM的推理準確性和泛化能力是一個機器學習領域的研究問題,一般都需要從以下6個方面來探討,即:
①增加數(shù)據(jù)量——更多的數(shù)據(jù)能讓模型更充分地認識所要識別的問題,學到更加共性的信息;
②處理缺失值和異常值——訓練數(shù)據(jù)中意外的缺失值和異常值通常會降低模型的準確率,或使模型產(chǎn)生的結果出現(xiàn)偏差,最終導致預測不準;
③使用正則化方法——正則化是一種防止模型過擬合的技術,包括提前終止和模型集成等。提前終止是在泛化誤差指標不再提升后,提前結束訓練;
④采用復雜模型——一些復雜的模型,如深度神經(jīng)網(wǎng)絡,能夠更好地學習和表示數(shù)據(jù)的復雜特征,從而提高推理的準確性和泛化能力;
⑤數(shù)據(jù)增強:對數(shù)據(jù)進行增強可以擴充數(shù)據(jù)集,提高模型的泛化能力;
⑥使用貝葉斯模型——貝葉斯模型能夠根據(jù)已有的數(shù)據(jù)進行概率推斷,對于新的、未知的數(shù)據(jù)有一定的預測能力,可以提高泛化能力。
AI大模型在服裝制造業(yè)智能化轉型中的應用
AI大模型事關人類生產(chǎn)工具的變革,事關一個國家制造業(yè)核心競爭力的重塑,事關經(jīng)濟的長期繁榮。AI大模型是重塑全球制造業(yè)競爭格局的新起點,AI大模型也是加速數(shù)實融合浪潮的又一次到來,其主要特征和目標是制造業(yè)轉型的智能化。AI大模型將影響制造業(yè)發(fā)展格局,AI大模型將會融入制造業(yè)的研發(fā)設計、生產(chǎn)工藝、質(zhì)量管理、運營控制、營銷服務、組織協(xié)同和經(jīng)營管理等方面,見圖十一。
圖十一 大模型融入制造業(yè)(圖源:安筱鵬)
大模型分為通用大模型和專業(yè)大模型(圖四)。通用大模型是在大規(guī)模語料(互聯(lián)網(wǎng),百科,電子書)上預訓練完成,例如GPT,Bert。
專業(yè)大模型是在通用大模型基礎上,通過微調(diào)或者提示工程使其善于完成某個下游任務,例如,ChatGPT。根據(jù)Gartner 預測,到 2026 年,超過 80%的企業(yè)將使用生成式 AI 的 API 或大模型,或在生產(chǎn)環(huán)境中部署支持生成式 AI 的應用,而在 2023 年初這一比例不到 0.5%。所以生成式AI及大模型未來發(fā)展的空間非常巨大。生成式 AI及大模型正在迅速走向應用落地,生成式 AI及大模型有望為全球經(jīng)濟貢獻約 7 萬億美元的價值,并將 AI 的總體經(jīng)濟效益提高 50%左右;中國則有望貢獻其中約 2 萬億美元,將近全球總量的 1/3。
面對這樣的形勢,由于我們服裝制造業(yè)存在對大模型的認知不足,行業(yè)和企業(yè)的算力和數(shù)據(jù)樣本不足,以及對大模型應用經(jīng)驗不足等原因,影響了對AI大模型的應用,所以我們現(xiàn)在應該奮起直追,認知好和應用好它。AI大模型應用在服裝制造業(yè)轉型于智能化主要要有以下幾個方面的認知:
(1)大小模型協(xié)同是AI大模型賦能制造業(yè)的重要趨勢
圖十二 制造業(yè)中大小模型的應用與協(xié)同
在服裝制造業(yè)轉型于智能化中應用好大模型和小模型是一個重要的趨勢,見圖十二。大模型的代碼生成、CAD生成和泛化等能力強,而小模型完成單個場景特別任務又特別好,所以我們在服裝制造業(yè)轉型于智能化中主張兩者協(xié)同應用。另外值得一提的是智能代理AI Agent是大小模型高度協(xié)同的重要載體,所以它將成為新的生產(chǎn)工具。
前面說過AI Agent將LLM與其他模型、軟件等外部工具協(xié)同,能夠處理真實世界中的各種復雜任務。未來在制造業(yè)AI Agent主要由“感知系統(tǒng)+控制系統(tǒng)+執(zhí)行系統(tǒng)”組成,它不僅具有生成能力,還將同時具備任務理解、任務拆解、任務調(diào)度、執(zhí)行規(guī)劃、鏈條協(xié)同等能力。其中LLM將主要承擔指揮中心角色,類似人類“大腦”的角色,對接入AI Agent的數(shù)字化工具(比如工業(yè)軟件、工業(yè)機器人、數(shù)字人等)進行統(tǒng)一智能調(diào)度管理,實時在生產(chǎn)、管理、服務等場景中,由不同組合的數(shù)字化工具協(xié)同完成具體任務。
(2)大模型生成代碼的價值在于服裝制造業(yè)所用的軟件都需要基于AI大模型重新做一遍
由上面大模型LLM介紹可知,它能生成文本、圖片、代碼、語音和視頻,但在這些當中生成代碼的價值被往往被忽略被低估。其實要實現(xiàn)制造業(yè)智能化一定要將所有的軟件基于AI重新做一遍,這里所有包括Windows、Office等辦公軟件、企業(yè)用的MES、WMS、PLM、ERP、CRM、SCM、PLC、SCADA等工業(yè)軟件會被重新做一遍。
所有軟件將由AI大模型驅動,這樣軟件才能從數(shù)字化或在線化走向真正的智能化。未來不但如此,所有的智能硬件如手機、計算機、智能家電、攝像頭、機器人、AGV小車、加工機械等也將被AI大模型驅動,見圖十三。
圖十三 AI大模型驅動軟硬件(圖源:安筱鵬 )
(3)大模型用于服裝前瞻化設計
大模型可以生成創(chuàng)新性的產(chǎn)品設計方案,從而更好地輔助技術人員快速將設計構思和意圖轉化為具體實施方案, 生成多樣化設計方案。例如一般獨立設計師的初創(chuàng)品牌會結合 AI 繪畫Midjourney工具和 AIGC大模型等工具,發(fā)揮自己的創(chuàng)意想象力,進行服裝版型設計。
不過版型設計對于 AI大模型的能力要求是比較復雜的,既要獨一無二的創(chuàng)意,又需要結合自己的品牌風格,只有設計師利用大模型進行微調(diào)和提示工程才能做到,其服裝版型設計結果見圖十四。又例如阿里巴巴開發(fā)的多模態(tài)大模型M6已成功應用于犀牛服裝服裝新制造,實現(xiàn)了文本到圖像生成等多種應用案例。傳統(tǒng)服裝設計過程中,設計師需要花費很長的時間設計衣服并進行線上樣款測試,但基于文本到圖像生成技術,可以直接輸入流行的服裝款式描述到M6模型中生成相應款式圖片。
這項技術將原本冗長的設計流程壓縮了超過十倍的時間,目前已經(jīng)商業(yè)投產(chǎn),并且與三十多家服裝商家在去年雙十一期間成功地進行了合作。再如凌迪Style3D在應用AI大模型技術打通了“AI+3D+AI”的路徑以后,在服裝商品企劃設計段,幫助設計師運用AI大模型深度學習能力,通過以文生款、以款生款、線稿成款、融合創(chuàng)款、AI局部編輯、AI試衣等功能,快速創(chuàng)造、還原、修改設計創(chuàng)意,加速設計靈感迸發(fā)。
圖十四 大模型微調(diào)與提示后的設計(圖源:WWD CHINA)
(4)AI大模型能彌合服裝制造業(yè)的數(shù)據(jù)流斷點
AI大模型帶來了新的人機交互方式,未來大模型將能操控一切,深刻改變生產(chǎn)制造等的方式。過去在我們服裝制造業(yè)進行數(shù)字化轉型是以傳統(tǒng)軟件的方式達到數(shù)據(jù)能夠自動流動為目的。但從客戶需求產(chǎn)品到獲得產(chǎn)品整個過程中,制造企業(yè)在多個環(huán)節(jié)中存在數(shù)據(jù)流斷點,往往需要工程師來開發(fā)各種工藝軟件和流程軟件,現(xiàn)在有了AI大模型將改變這一狀況,它使現(xiàn)在基于文本的信息流轉變?yōu)榛谀P偷男畔⒘?見圖十五。
圖十五 服裝制造業(yè)基于模型的信息流(圖源:安筱鵬)
基于AI大模型的自然語言交互能力,為制造業(yè)企業(yè)內(nèi)部各環(huán)節(jié)之間的實時、泛在的連接提供了軟件開發(fā)、交互的新方式,降低了工藝和流程的軟件開發(fā)門檻、提高了效率,彌合了企業(yè)數(shù)據(jù)流動過程中的無數(shù)個斷點。這一功能大大降低了工藝開發(fā)人員的門檻,提高了開發(fā)效率和質(zhì)量。從全局來看,不僅能避免出現(xiàn)數(shù)據(jù)斷點,減少人工干預帶來的影響,而且提高了整個系統(tǒng)的智能化水平。
(5)AI大模型能在服裝制造業(yè)生產(chǎn)線上實現(xiàn)智能化調(diào)控
智能化調(diào)控在現(xiàn)代服裝制造業(yè)生產(chǎn)線中,需要對多個關鍵節(jié)點進行智能化調(diào)度和控制,以提升產(chǎn)線運行效率。人工智能大模型可以通過分析多樣化的歷史數(shù)據(jù),更好地理解諸如生產(chǎn)需求、資源可用性、任務優(yōu)先級等工業(yè)調(diào)度任務中的復雜關系,從而優(yōu)化各節(jié)點的任務分配和調(diào)度,提高生產(chǎn)效率和靈活性。這一調(diào)控典型做法是在SCADA(數(shù)據(jù)采集與監(jiān)視控制系統(tǒng))場景下,利用大模型在生產(chǎn)線場景下的編程接口和生態(tài)庫,生成工業(yè)邏輯代碼(交互、建模、SQL開發(fā))并自動集成到工業(yè)軟件中,用它來進行閉環(huán)優(yōu)化控制。
(6)AI大模型能用于服裝定制化服務
大模型可以憑借在文本生成、圖像生成和自然語言對話等方面的優(yōu)勢,使服服裝定制服務不僅僅是問與答,可讓客戶直接根據(jù)自己需要進行修改,這樣就進一步提升了客戶忠誠度和滿意度。例如阿里巴巴的多模態(tài)大模型M6,利用提供文本到圖像生成的能力,可根據(jù)客戶需求,不斷完善其生成結果。在給定一張衣服圖像時,用戶可以在保留其領子后進一步進行個性化改進,每改進一次可以生成改進一部分的token,隨后進行多次迭代后,其生成的衣服圖像結果就會越來越好,直到客戶滿意。
(7)90%以上的中小微服裝制造業(yè)數(shù)智化轉型可以利用AI大模型服務平臺了
大模型的出現(xiàn)為廣大中小微服裝制造業(yè)數(shù)智化轉型和高質(zhì)量發(fā)展帶來很好的技術支撐。針對服裝制造業(yè)做大模型的阿里巴巴、海爾、創(chuàng)新奇智、商湯科技等,他們的推出的大模型平臺除了自己應用外,還給更多的中小微制造企業(yè)服務。除此之外,我國還發(fā)展了一批面向更多中小微企業(yè)的大模型平臺服務企業(yè)。例如廣州致景公司專為服裝設計的建模和服裝工廠的管理服務;山東橙色云專為企業(yè)設計承接和轉包大模型平臺,現(xiàn)在已經(jīng)有上萬家中小微企業(yè)在他們平臺上發(fā)布需求服務了;深圳云工科技,利用大模型平臺專門為企業(yè)需要訂貨服務,僅去年下半年就下單了100億的交易;江蘇智云天工和三一重工做了一個虛擬工廠和供應鏈管理大模型平臺,可為企業(yè)做到生產(chǎn)流程最優(yōu)和零庫存或少庫存管理等等。
(8)利用AI大模型對衣片或成衣進行質(zhì)量檢測
結束語
(1)在2024年3月5日發(fā)布的2024政府工作報告中,首次提出開展“人工智能+”行動。在當前由AI大模型驅動的新一輪人工智能熱潮下,“人工智能+”行動的提出,是順應潮流,重大利好。隨著“人工智能+”行動的開展,政產(chǎn)學研用都將推進“人工智能+”在各行各業(yè)落地,經(jīng)濟社會將加速進入由人工智能驅動的AI大模型新時代?!叭斯ぶ悄?”的到來,將促進很多人工智能“新物種”的誕生,如AI Agent、人形機器人、無人駕駛汽車等等,這些將加速智能經(jīng)濟的快速發(fā)展壯大。時代的車輪滾滾向前,人工智能浪潮已勢不可擋,我們制造企業(yè)只有積極擁抱它才能生存。
(2)我很贊同AI科學家賈揚清說的一段話,借來作為一個結束語,他說:“目前國產(chǎn)大模型中,主要分為三類:一是原創(chuàng)大模型;二是套殼國外的開源大模型;三是拼裝大模型,也就是把過去的小模型們拼在一起,變成參數(shù)量看起來很大的“大模型”。其中,原創(chuàng)大模型數(shù)量最少,做原創(chuàng)大模型需要有很強的技術積累,且要有持續(xù)的高投入,風險很大,因為一旦模型沒有足夠強的競爭力,這些大規(guī)模投入就打了水漂?!ぁぁぁぁぁさ缴虡I(yè)化落地階段,客戶也不太會在意是否原創(chuàng),有用就行,甚至不少客戶會因為成本更低,更愿意選擇非原創(chuàng)的技術”。
(3)服裝制造業(yè)要使AI大模型應用落地,一是要面向企業(yè)應用場景推進AI大模型技術攻關;二是要建立和收集規(guī)?;拇竽P凸I(yè)數(shù)據(jù)資源;三是要完善AI大模型在制造企業(yè)的應用性能評測機制;四是要選好和做好AI大模型應用企業(yè)試點示范工作。
2024年4月稿