欧美老熟妇乱xxxxx-老熟妇仑乱视频一区二区-狠狠躁天天躁夜夜躁婷婷-亚洲中文字幕久久精品无码喷水,免费看少妇作爱视频,国产精品一区二区av,丰满少妇作爱视频免费观看

您的位置: 首 頁 > 新聞資訊 > 代理人專欄

從專利看時代風(fēng)口上的“AI大模型”

發(fā)布時間:2025-02-13 次瀏覽

2024年12月,隨著中央經(jīng)濟(jì)工作會議的召開,中國人工智能(AI)產(chǎn)業(yè)迎來重要的政策指導(dǎo)期。在這一背景下,各大科技公司眾彩紛呈。尤其近期,DeepSeek、字節(jié)跳動和小米等企業(yè)的最新動態(tài),更是為國產(chǎn)AI大模型的商業(yè)化應(yīng)用提供了生動的注解。

最近DeepSeek在AI社區(qū)引發(fā)軒然大波,其推出了大語言模型DeepSeek-R1及聊天機(jī)器人應(yīng)用。據(jù)估算,DeepSeek-R1比OpenAI的ChatGPT-O1模型成本低95%,且計(jì)算能力需求僅為Meta的Llama3.1的十分之一。其通過算法創(chuàng)新實(shí)現(xiàn)計(jì)算能力的優(yōu)化,突破了美國企業(yè)依賴海量數(shù)據(jù)輸入和龐大計(jì)算資源的傳統(tǒng)模式。

其次,字節(jié)跳動在其冬季FORCE原動力大會上宣布其自研的大模型“豆包”完成全面升級,推出了新的視覺理解模型。該模型不僅在內(nèi)容識別和推理能力上表現(xiàn)卓越,而且其服務(wù)價格優(yōu)勢明顯。

而小米則宣布正在建設(shè)大型GPU集群,旨在為業(yè)務(wù)的AI大模型發(fā)展提供強(qiáng)有力的支撐。其AI團(tuán)隊(duì)規(guī)模已超過3000人,顯現(xiàn)出這一行業(yè)龍頭對AI技術(shù)未來的重視與投入。隨著算力基礎(chǔ)設(shè)施投資的持續(xù)增加,AI應(yīng)用將加速落地,推動整個產(chǎn)業(yè)的高速發(fā)展[1]

2024年12月19日,閃極科技發(fā)布了AI眼鏡“閃極AI拍拍鏡”,該產(chǎn)品支持接入多種各具特色的大模型,如豆包和文心一言等。2025年1月7日-10日,全球最大的電子消費(fèi)展CES 2025在美國拉斯維加斯盛大召開。繼去年首次亮相后,李未可科技在此次展會上帶來了即將在春季正式發(fā)布的AI拍攝眼鏡MetaLens View,搭載自研多模態(tài)AI大模型WAKE-AI。

AI眼鏡的發(fā)布標(biāo)志著端側(cè)AI的崛起,一種新的設(shè)備終端生態(tài)開始形成。未來AI大模型的發(fā)展一定是結(jié)合不同的應(yīng)用場景。根據(jù)市場研究機(jī)構(gòu)頭豹研究院的測算,預(yù)計(jì)2028年中國終端AI市場規(guī)模將激增至19071億元[2]

這種趨勢預(yù)示著,端側(cè)AI技術(shù)正在迅速成熟,能夠有效整合于PC、手機(jī)、可穿戴設(shè)備、車載中控屏等多種智能硬件之中,并應(yīng)用于多種場景。接下來,將從AI大模型技術(shù)應(yīng)用到多場景的角度進(jìn)行專利技術(shù)的解析。

圖片

圖1 閃極AI拍拍鏡[3]

一、融合到可穿戴設(shè)備

百度在2024年11月發(fā)布了小度AI眼鏡產(chǎn)品,其于2023年便布局了相關(guān)專利CN116300092B,基于語音交互和智能眼鏡的移動狀態(tài)分析用戶意圖,從圖像序列中篩選出用戶感興趣的目標(biāo)圖像并展示出來便于用戶交互;并基于標(biāo)記精確定位出用戶感興趣的圖像內(nèi)容,使得用戶可以較低的復(fù)雜度和操作成本在智能眼鏡進(jìn)行圖像內(nèi)容搜索,提升了用戶的使用體驗(yàn)。

圖片
圖2 小度AI眼鏡[4]

又如杭州李未可科技有限公司2024年申請的專利CN118585071B,其公開了基于AR眼鏡的多模態(tài)大模型的主動交互系統(tǒng),同樣將AI大模型技術(shù)結(jié)合到眼鏡上面。通過集成多種交互模態(tài),包括視覺、語音、手勢和觸覺等,利用先進(jìn)的數(shù)據(jù)融合技術(shù)和機(jī)器學(xué)習(xí)算法,智能地處理并整合來自不同模態(tài)的信息,從而在復(fù)雜的使用環(huán)境中做出更加準(zhǔn)確的決策,其提出的大模型眼鏡能夠識別并量化交互命令中的不確定性,通過觸發(fā)輔助交互模態(tài)及時介入,確保了交互的準(zhǔn)確性。

圖片

圖3 李未可眼鏡[5]

現(xiàn)有的問答系統(tǒng)面向通用知識領(lǐng)域,在用戶進(jìn)行問題搜索時,往往根據(jù)用戶問題中的關(guān)鍵詞在通用知識領(lǐng)域進(jìn)行關(guān)鍵詞匹配搜索,因此用戶進(jìn)行問題搜索時,往往不能準(zhǔn)確理解用戶的技術(shù)術(shù)語和問題描述,難以確保提供的答案正確有效。2024年三六零安全科技發(fā)布的兒童AI手表,其搭載了360智腦大模型。三六零安全科技2023年布局專利CN116955573B,通過對用戶問題進(jìn)行關(guān)鍵詞提取,再進(jìn)行知識檢索,從而對用戶問題進(jìn)行問題描述增強(qiáng),然后再進(jìn)行檢索得到答案信息,相對于直接根據(jù)用戶問題檢索對應(yīng)答案信息的方式,能夠提高問題搜索的效率,提高用戶體驗(yàn)感。

圖片

圖4 360兒童AI手表[6]

二、融合到PC、手機(jī)端

AI大模型技術(shù)融合到PC端和手機(jī)端均是從2023年下半年開始的。2023年底,聯(lián)想搶先發(fā)布全球首款商務(wù)AI PC—ThinkPad X1 Carbon AI。2024年3月,蘋果發(fā)布最新款MacBook Air,作為其首款A(yù)I PC產(chǎn)品,在M3芯片的加持下,macOS提供AI功能。2024年,市場部分PC產(chǎn)品已嵌入了一些AI技術(shù),頭部廠商推出從雙向AI降噪、AI文生圖創(chuàng)作,到搭載AI引擎、AI軟件等功能。

2017年被業(yè)內(nèi)視作“AI手機(jī)”元年,蘋果、華為、三星等智能手機(jī)廠商紛紛自研AI大模型,全力布局AI手機(jī)并發(fā)掘更多有價值的AI應(yīng)用。而在2023年各個智能手機(jī)廠商更是眾彩紛呈。如2023年10月26日,高通驍龍8gen3發(fā)布,其離線終端可以運(yùn)行百億參數(shù)量大模型。2023年11月,華為宣布手機(jī)系統(tǒng)接入盤古大模型,開啟內(nèi)置大模型的語音助手“小藝”的眾測。vivo推出自研AI大模型矩陣,并在11月發(fā)布了首款A(yù)I大模型手機(jī)X100。OPPO開發(fā)者大會上,操作系統(tǒng)ColorOS14正式亮相,首次內(nèi)置了安第斯大模型(AndesGPT)。

接下來,針對AI大模型技術(shù)融合到PC端、手機(jī)端的專利技術(shù),從產(chǎn)品的角度進(jìn)行淺析。

(1)Deepseek

Deepseek是杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司的子公司,其技術(shù)優(yōu)勢及特點(diǎn)主要是采用混合專家(MoE)架構(gòu),如DeepSeek-R1包含256個路由專家和1個共享專家,每個令牌可激活370億個以上參數(shù)。共享專家捕捉通用知識,路由專家優(yōu)化計(jì)算資源分配,使模型能更高效地處理各種任務(wù),在保持高性能的同時降低計(jì)算成本。另一個相較于其他大模型的優(yōu)勢在于,DeepSeek采取開源模式,如DeepSeek-R1在MIT許可下發(fā)布,開發(fā)者可自由訪問、修改和部署技術(shù),提高了模型的透明度,能集眾人之力進(jìn)行改進(jìn),降低了AI應(yīng)用門檻,吸引了更多開發(fā)者和企業(yè)參與到基于其模型的開發(fā)中。

圖片

圖5 Deepseek產(chǎn)品圖

在專利的布局方面,由于公司成立時間較短,以及專利審查的滯后性,目前公開的專利只有1項(xiàng),即申請日為2024年的CN118246542A,通過將數(shù)據(jù)集切分為數(shù)據(jù)序列,以數(shù)據(jù)序列為單位建立索引,對索引進(jìn)行操作而不直接操作數(shù)據(jù)的情況下,實(shí)現(xiàn)數(shù)據(jù)的按比例混合、打亂及切分操作,整個過程不會增加冗余數(shù)據(jù)存儲,減少對存儲、通信資源的消耗。

(2)文心一言

文心一言是百度打造出來的人工智能大語言模型,其在人機(jī)交互技術(shù)和視頻交互技術(shù)方面具有一定的優(yōu)勢。

在人機(jī)交互方面,主要基于深度學(xué)習(xí)的Transformer架構(gòu),還涉及情感分析、知識圖譜等算法,支持文本、語音、圖像等多種輸入方式,實(shí)現(xiàn)了多模態(tài)的交互體驗(yàn),使得用戶與機(jī)器之間的交流更加自然和便捷。在視頻交互方面,用戶可根據(jù)自己的需求,選擇不同的語音、圖像和動畫風(fēng)格,還能對生成的語音進(jìn)行語速、音高和音量等方面的調(diào)整,生成符合個人喜好的視頻,滿足不同用戶對視頻風(fēng)格和內(nèi)容的多樣化需求。

圖片
圖6 文心一言產(chǎn)品圖

人機(jī)交互方面:2024年申請專利CN118606590B,通過瀏覽目標(biāo)頁面的對象的交互操作,來獲取目標(biāo)頁面相關(guān)頁面信息,并根據(jù)大模型處理頁面信息得到的結(jié)構(gòu)化反饋信息來向?qū)ο筮M(jìn)行展示,從而可以基于結(jié)構(gòu)化反饋信息來實(shí)現(xiàn)對頁面信息的展示,使對象可以通過瀏覽結(jié)構(gòu)化反饋信息,來提升用戶的信息獲取效率和信息瀏覽效率,進(jìn)而提升用戶的多模態(tài)交互體驗(yàn)。

視頻交互方面:2024年申請專利CN118764681B和CN118764682B基于AIGC(中文釋義)技術(shù)進(jìn)行智能對話。基于視頻的內(nèi)容,采用大語言模型確定交互頁面所關(guān)聯(lián)的交互對象包括的虛擬對象;虛擬對象與視頻中的角色相對應(yīng);以及響應(yīng)于接收到針對視頻的獲取請求,將視頻以及虛擬對象的標(biāo)識信息發(fā)送給請求視頻的終端設(shè)備,進(jìn)而提升用戶的參與感與沉浸度。

(3)豆包

豆包是字節(jié)跳動研發(fā)的AI大模型,其采用擬人化和真實(shí)感的設(shè)計(jì),用戶可以通過文字、語音與豆包互動,其高逼真、擬人化的自然語言風(fēng)格,讓對話更加自然流暢。另外,其在圖像生成方面也有著強(qiáng)大的實(shí)力。

在人機(jī)交互方面,豆包采用先進(jìn)的深度學(xué)習(xí)算法和大規(guī)模語料庫訓(xùn)練,能夠精準(zhǔn)解析用戶輸入的自然語言,理解其中的意圖、情感和上下文信息。無論是簡單的問題詢問,還是復(fù)雜的指令表達(dá),都能準(zhǔn)確把握關(guān)鍵信息,并且豆包還支持多語種交互以及多模態(tài)交互。在圖像處理方面,利用深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)等技術(shù),能夠?qū)Ω鞣N類型的圖像進(jìn)行精準(zhǔn)分類,識別出圖像中的物體、場景、人物等元素??梢詼?zhǔn)確判斷圖像是風(fēng)景、動物、建筑還是其他類別,為進(jìn)一步的圖像處理和分析提供基礎(chǔ)。其不僅能夠識別圖像中的物體和場景,還能理解圖像所表達(dá)的語義信息。通過對圖像中各種元素之間的關(guān)系進(jìn)行分析,能夠推斷出圖像所傳達(dá)的故事、情感或主題,實(shí)現(xiàn)對圖像更深入的理解。

圖片
圖7 豆包產(chǎn)品圖

人機(jī)交互方面,2018年布局專利CN108564833B,通過構(gòu)建目標(biāo)知識集合,進(jìn)而確定應(yīng)答語句的方式能夠保證對話內(nèi)容在用戶的學(xué)習(xí)能力范圍之內(nèi),進(jìn)而可以鞏固和提升用戶對知識點(diǎn)的吸收率。此外,針對不同的用戶,根據(jù)該用戶對應(yīng)的目標(biāo)知識集合,向用戶反饋與用戶輸入的第一源語句對應(yīng)的第一應(yīng)答語句,可以滿足不同用戶的個性化交互需求,提升用戶的交互體驗(yàn)。

圖像處理方面,2019年布局專利CN110475065B,通過基于特效圖像幀的繪制幀率和原始圖像幀的預(yù)覽幀率之間的差值,控制圖像預(yù)覽過程中用于采集新的原始圖像幀的分辨率,能夠使特效處理過程中分辨率和幀率的智能化平衡,從而使得用戶對相機(jī)預(yù)覽效果和視頻錄制的滿意度達(dá)到相對最佳,并且獲得更優(yōu)質(zhì)的使用體驗(yàn)。

(4)Kimi

Kimi是北京月之暗面科技有限公司(以下簡稱“月之暗面”)開發(fā)的智能助手產(chǎn)品,其具備長文總結(jié)和生成、聯(lián)網(wǎng)搜索、數(shù)據(jù)處理、編寫代碼、用戶交互、翻譯等功能。

現(xiàn)有的大語言模型推理方法中,會涉及對同一參數(shù)進(jìn)行多次重復(fù)計(jì)算,但是,由于大語言推理模型的復(fù)雜性,單次推理可能進(jìn)行上億參數(shù)的深度學(xué)習(xí)推理計(jì)算,因此,大量的重復(fù)計(jì)算會導(dǎo)致浪費(fèi)計(jì)算資源。月之暗面在2024年布局的專利CN118052282A提出了解決方案,通過緩存單元存儲歷史推理請求過程中的推理資源,進(jìn)而可以在針對當(dāng)前推理請求過程中,提取歷史推理資源,以減少當(dāng)前推理過程中重復(fù)計(jì)算的問題,加快了推理速度,進(jìn)一步的,通過使用生成的結(jié)果字更新當(dāng)前推理數(shù)據(jù),可以使后續(xù)結(jié)果字的生成更加準(zhǔn)確,可以提高推理系統(tǒng)生成自然語言的流暢性和連續(xù)性。

圖片
圖8 Kimi產(chǎn)品圖
三、融合到車載端

車企與科技企業(yè)合作可以充分發(fā)揮各自的優(yōu)勢,共同推動智能汽車的發(fā)展。例如,百度、字節(jié)跳動、商湯科技、科大訊飛等科技企業(yè)與理想汽車、小鵬汽車、蔚來汽車等車企都在加快部署大模型“上車”,融合到車載端的大模型可以為新能源汽車更好地賦能:

(1)大模型能夠處理和分析海量的駕駛數(shù)據(jù),實(shí)現(xiàn)更精準(zhǔn)的環(huán)境感知、目標(biāo)識別和路徑規(guī)劃。例如,商湯絕影發(fā)布的DriveAGI自動駕駛大模型,可讓車輛像人一樣理解復(fù)雜的現(xiàn)實(shí)世界,洞察各類交通參與者的行為動機(jī),快速學(xué)習(xí)交通規(guī)則,并向用戶解釋駕駛決策的推理過程。

(2)通過對用戶語音、手勢等多模態(tài)信息的理解,提供更加自然、便捷的交互方式。例如,百度的文心一言大模型將百度智能座艙升級為Apollo超級座艙,可實(shí)現(xiàn)自動理解、構(gòu)建,并生成相應(yīng)場景,調(diào)度全車能力,理解用戶需求,并主動執(zhí)行最優(yōu)全局解決方案。

(3)實(shí)時監(jiān)控車輛的運(yùn)行狀態(tài)和周圍環(huán)境,及時發(fā)現(xiàn)潛在的安全隱患,并向用戶發(fā)出預(yù)警。例如,國內(nèi)汽車安全公司木衛(wèi)四發(fā)布的汽車安全大模型蝴蝶大模型2.0,可以在數(shù)百萬輛的汽車異常日志中自動識別黑客攻擊和汽車異常狀況,幫助車企實(shí)時識別汽車安全風(fēng)險。

(4)大模型可以支持更多的娛樂應(yīng)用,如游戲、視頻、音頻等,為用戶在駕駛過程中提供更多的娛樂選擇。例如,吉利的AI銀河精靈擁有遠(yuǎn)程控車、自定義形象、大模型創(chuàng)作等15大功能,還可以根據(jù)用戶的駕駛習(xí)慣、偏好等數(shù)據(jù),提供個性化的服務(wù),如音樂推薦、導(dǎo)航路徑規(guī)劃等,提升用戶的滿意度。

在融合到車載端的大模型的專利布局方面,列舉以下企業(yè):

(1)商湯科技

商湯科技主要產(chǎn)品為DriveAGI自動駕駛大模型,在該系列模型的專利技術(shù)保護(hù)方面如:

2021年,商湯科技布局的專利CN112949827B,提出了神經(jīng)網(wǎng)絡(luò)生成、數(shù)據(jù)處理,以及智能行駛控制方法。通過確定結(jié)構(gòu)向量對應(yīng)的梯度向量,基于梯度向量和結(jié)構(gòu)向量確定目標(biāo)神經(jīng)網(wǎng)絡(luò),比如利用梯度向量指示的調(diào)整信息對結(jié)構(gòu)向量對應(yīng)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行調(diào)整,確定目標(biāo)神經(jīng)網(wǎng)絡(luò),不需要多次采樣神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),提高了生成目標(biāo)神經(jīng)網(wǎng)絡(luò)的效率。商湯科技將這種方法融合到了自動駕駛方面,通過獲取行駛裝置在行駛過程中采集的圖像或視頻;利用神經(jīng)網(wǎng)絡(luò)檢測圖像或者視頻中的目標(biāo)對象;基于檢測的目標(biāo)對象,控制行駛裝置。

圖片

圖9 商湯科技產(chǎn)品應(yīng)用圖[7]

(2)吉利

隨著人工智能的發(fā)展,智能交互的思想逐漸滲透至生活中的各個方面。在智能汽車領(lǐng)域,現(xiàn)如今逐漸趨向于軟件定義汽車,在大模型自然交互的大背景下,如何更好地提升乘駕體驗(yàn),讓汽車更加智能化,成為該領(lǐng)域研究的重點(diǎn)之一,吉利基于自建星睿智算中心,已正式發(fā)布全棧自研的全球首個汽車行業(yè)全場景AI大模型——吉利星睿AI大模型。

圖片

圖10 吉利星睿AI大模型架構(gòu)圖[8]

車端的算力相對于云端存在較大差距,目前大多是通過對大模型進(jìn)行云端部署,以實(shí)現(xiàn)車端的大模型體驗(yàn)。但是,在云端部署大模型,由于云端數(shù)據(jù)交互傳輸會導(dǎo)致車端在實(shí)際體驗(yàn)過程中時延較高;并且,云端部署的大模型與車端進(jìn)行交互時,對網(wǎng)絡(luò)質(zhì)量的要求較高,但在實(shí)際車輛行駛過程中,車載網(wǎng)絡(luò)信號不能實(shí)現(xiàn)時刻穩(wěn)定,因此,導(dǎo)致車載交互準(zhǔn)確性較差以及車載大模型體驗(yàn)不夠好。

針對云端部署大模型與車端進(jìn)行數(shù)據(jù)交互過程中時延高,以及車載網(wǎng)絡(luò)不穩(wěn)定導(dǎo)致的車載交互不夠及時和準(zhǔn)確的問題,吉利在2024年申請了專利CN117891469A,通過云端運(yùn)行車載大模型,利用用戶終端的大模型框架加載云端運(yùn)行跑出的參數(shù),從而實(shí)現(xiàn)將大模型從云端運(yùn)行轉(zhuǎn)移至用戶終端運(yùn)行,實(shí)現(xiàn)了本地化及離線化部署;通過共享用戶終端算力,避免了汽車終端算力不足的問題;另一方面,通過用戶終端與汽車終端進(jìn)行數(shù)據(jù)通信傳輸,避免了汽車終端與云端之間網(wǎng)絡(luò)信號不穩(wěn)定而導(dǎo)致的交互不夠及時和準(zhǔn)確的問題。

隨著智能座艙技術(shù)的發(fā)展,出現(xiàn)了實(shí)操駕駛分析技術(shù),此技術(shù)采集用戶的實(shí)操駕駛數(shù)據(jù),通過對實(shí)操駕駛數(shù)據(jù)的分析向用戶反饋實(shí)操駕駛報告,以使用戶可以更清晰的知道自己的駕駛水平,從而可以有針對性的對自己的駕駛技巧進(jìn)行訓(xùn)練。吉利在2024年申請的專利CN118069782A,通過實(shí)操駕駛數(shù)據(jù)和標(biāo)準(zhǔn)駕駛數(shù)據(jù)對目標(biāo)對象的駕駛操作進(jìn)行分析,得到分析結(jié)果;根據(jù)目標(biāo)對象的問題和分析結(jié)果構(gòu)建的提示信息有助于指導(dǎo)大模型輸出更具針對性的回復(fù)信息。

四、結(jié)語

可以看出,無論是將大模型融合到眼鏡、手表、手環(huán)等可穿戴設(shè)備上,還是開發(fā)適用于手機(jī)端、PC端的AI大模型應(yīng)用,或是將其延伸到發(fā)展如火如荼的新能源汽車上,AI大模型均具有較大的發(fā)展?jié)摿Α?/span>

當(dāng)然,AI技術(shù)的快速發(fā)展也帶來了一系列挑戰(zhàn)與思考。例如,隨著算力需求的急劇上升,行業(yè)如何確保技術(shù)的可持續(xù)發(fā)展、如何應(yīng)對行業(yè)間的競爭加劇、以及如何在法律與倫理的框架下引導(dǎo)技術(shù)的應(yīng)用,都是亟待解決的問題。

總之,國產(chǎn)大模型的崛起與端側(cè)AI的廣泛應(yīng)用,代表著中國AI產(chǎn)業(yè)步入了一個新的發(fā)展階段。未來,AI大模型不僅將是科技領(lǐng)域的一個關(guān)鍵詞,更將是每個人日常生活中不可或缺的伙伴。積極的研發(fā)活動和完善的專利布局,能夠助力企業(yè)在日趨激烈的市場競爭中占據(jù)一席之地。


1.小米GPU萬卡集群與AI大模型的未來:一次飛躍的征程 ↑
2.data.eastmoney.com/report/zw_industry.jshtml?infocode=AP2024081616393176 ↑
3.【閃極A1】閃極(Sharge)拍拍鏡【重磅新品】智能A1拍攝音頻眼鏡AI助手閃記語音操控 非VR眼鏡翻譯眼鏡 曜石黑【行情 報價 價格 評測】-京東
4.小度AI眼鏡_百度百科
5.李未可Meta lens S3智能AR眼鏡4K高清防抖vlog頭戴運(yùn)動相機(jī)ai翻譯送男友禮物山地公路摩托車導(dǎo)航騎行眼鏡 Meta Lens S3 AR智能AI眼鏡【圖片 價格 品牌 報價】-京東
6.360兒童官網(wǎng)
7.智能駕駛-領(lǐng)航駕駛-智能泊車-行泊一體化-商湯科技
8.吉利星睿AI大模型架構(gòu)圖 - 搜索 圖片


作者:北京品源知識產(chǎn)權(quán)管理咨詢有限公司 張?zhí)扉?/p>

本文網(wǎng)址:http://www.zsthwj.com/news/991.html

關(guān)鍵詞:

返回列表
首頁 電話咨詢 聯(lián)系方式

電話咨詢

微信咨詢

二維碼

關(guān)注微信

在線咨詢

TOP