97国产精品一区二区视频_国产午夜毛片色哟哟_惠民福利国产91精品看黄网站在线观看_搡老熟女老女人一区二区三区_国产做a∨在线视频观看免费_日韩 综合 婷婷 图_成人黄色一级毛片片_萧山本地第一网络媒体_亚洲国产精品无码久久久曰_亚洲欧美日韩岛国色图

快捷導航

澎湃思想周報|AI關乎權力而非技術;心理治療機器人的悖論

2024-11-13 12:36| 發(fā)布者: admin| 查看: 123| 評論: 0
摘要: AI關乎權力而非技術 近日,《雅各賓》發(fā)表了研究者Jason Resnikoff的文章,認為AI并非一種特定的技術,而只是一種敘述。AI不過是這個利用技術烏托邦主義來貶低勞動的敘述中的一個新篇章。AI有可能對工人造成嚴重傷害 ...

AI關乎權力而非技術

近日,《雅各賓》發(fā)表了研究者Jason Resnikoff的文章,認為AI并非一種特定的技術,而只是一種敘述。AI不過是這個利用技術烏托邦主義來貶低勞動的敘述中的一個新篇章。AI有可能對工人造成嚴重傷害——原因并非來自技術本身,而在于老板掌控了它。Jason Resnikoff是《勞動的終結:自動化的承諾如何降低了勞動質量》一書的作者。

澎湃思想周報|AI關乎權力而非技術;心理治療機器人的悖論


AI帶來的物質變化并未消除人類勞動,反而讓勞動退化。作者認為,這在機械化的歷史中早有先例,從工業(yè)革命伊始,技術不但沒有減輕工作量,反而使雇主利用技術——甚至只是技術的概念——把原本優(yōu)質的工作變成了低技能勞動,并通過技術掩蓋人類的勞動,讓勞動力成本更低。

雇主們借用AI這個詞匯來編織一個技術進步、打壓工會和勞動退化(Labor Degradation,降低勞動質量)密不可分的故事。然而,這種退化并非技術的本質,而是資本和勞動關系的產物。目前關于AI和工作未來的討論,只不過是雇主長期以來試圖削弱工人權力、聲稱人類勞動價值下降的又一新篇章。

當技術企業(yè)家談論“AI做這個”、“AI做那個”時(比如埃隆·馬斯克向前英國首相里?!ぬK納克承諾的“AI將帶來豐裕的時代,人人無需工作,因為‘AI能夠包攬一切’”),他們用的“AI”一詞更多是掩蓋實際情況。學術研究領域的AI通常并非特指某種技術,而是如權威人士瑪格麗特·A·博登所定義的“讓計算機做與人類思維類似的事情的實踐”。換句話說,AI更像是一種希望,即制造出表現(xiàn)得像是智能的機器。沒有一項單一技術讓AI在計算機科學中獨樹一幟。

當前許多關于AI的討論集中在人工神經網絡在機器學習中的應用。機器學習指的是使用算法在大量數(shù)據集中尋找模式以進行統(tǒng)計預測,如ChatGPT這樣的聊天機器人。聊天機器人通過龐大的計算能力和海量數(shù)據來計算一個詞出現(xiàn)在另一個詞旁邊的統(tǒng)計概率。

機器學習通常依賴于設計者來幫助系統(tǒng)解釋數(shù)據,這時人工神經網絡派上用場(機器學習和人工神經網絡只是AI的兩種工具)。人工神經網絡是一組鏈接的軟件程序(每個程序稱為一個節(jié)點),每個節(jié)點可以計算一項特定任務。以ChatGPT為例(屬于大語言模型類別),每個節(jié)點是一個運行數(shù)學模型(稱為線性回歸模型)的程序,接收數(shù)據、預測統(tǒng)計可能性并生成輸出。這些節(jié)點相互連接,每個鏈接有不同權重,用于影響最終的輸出。

這種模仿與人類意識相去甚遠。研究人員并不了解大腦的運作,因此無法真正將語言規(guī)則編碼進機器內。相反,他們采用了微軟研究院研究員凱特·克勞福德稱之為的“概率或蠻力方法”。人類并不以這種方式思考。例如,兒童并不是通過閱讀所有維基百科的內容并統(tǒng)計詞語的相鄰頻率來學習語言的。此外,這些系統(tǒng)消耗大量能源且費用高昂。訓練ChatGPT-4的成本約為7800萬美元;Google的Gemini Ultra則達到1.91億美元。人類學會和使用語言的成本遠低于此。

在標準機器學習中,人類標記不同輸入以教導機器如何組織數(shù)據及其在決定最終輸出時的重要性。例如,許多人領著極低的報酬“預訓練”或教導計算機程序辨認圖像內容,標記圖片以便程序區(qū)分花瓶和杯子。據《衛(wèi)報》報道,OpenAI在肯尼亞雇用合同工為ChatGPT標記涉及暴力、自殘、謀殺等內容的文本和圖像,報酬低得驚人。多名工人聲稱這些工作條件剝削性極強,并請求肯尼亞政府對OpenAI展開調查。

《衛(wèi)報》的文章以非洲員工Mercy和Anita的經歷為例。Mercy是一名位于肯尼亞內羅畢的內容審核員,她的工作包括審查社交媒體上的暴力或色情內容,以確保其符合公司的社區(qū)準則。這些內容常常涉及極端暴力、性虐待等,給她的心理帶來了沉重的負擔。在她的一次審核中,她竟意外發(fā)現(xiàn)了一段視頻的受害者是自己的祖父,因這段視頻,她在同事面前崩潰,但主管只是安慰她“明天可以休息”,卻要求她繼續(xù)當天的工作。

Anita則在烏干達北部城市古魯從事數(shù)據標注工作,負責分析視頻內容中的司機面部表情,幫助構建AI的“車內行為監(jiān)測系統(tǒng)”。她的工作壓力大,報酬低,長時間面對電腦屏幕注視枯燥的視頻內容,每周45小時的勞動報酬僅略高于200美元,約合每小時1.16美元。

這些內容審核員和數(shù)據標注員的日常工作極為艱苦,不僅需要時刻集中注意力,還得面對大量令人不安的內容。由于生產效率要求嚴格,他們必須在規(guī)定時間內完成大量任務,幾乎沒有時間休息或反思,許多人因此飽受心理創(chuàng)傷、抑郁甚至有自殺傾向。

文章指出,全球南方(如非洲)的工人因經濟脆弱性,不得不接受這樣的工作條件,而雇主通常對他們的身心健康缺乏關懷。內容審核公司會通過閉路電視監(jiān)控系統(tǒng)、指紋掃描等監(jiān)視員工的行為,計算每一秒的工作效率。盡管這些公司聲稱為貧困地區(qū)提供就業(yè)機會,但實際工作條件令人窒息,且合同通常僅為短期,員工隨時可能失去工作。工人不敢抱怨,因為知道自己很容易被替代。

根據《雅各賓》文章的作者,當代AI的使用趨勢卻趨向于將技術神秘化,將其包裹成一個龐大且難以理解的革命性機制。這種效果并非偶然,而是符合資本的利益。AI,并不是一項革命性的技術,而是關于技術的一個敘述。AI不過是這個利用技術烏托邦主義來貶低勞動的敘述中的一個新篇章。

幾家法國大型連鎖超市聲稱他們使用“人工智能”來識別小偷,然而實際情況是這些監(jiān)控是由馬達加斯加的員工通過觀看監(jiān)控視頻完成的,而這些員工每月的收入僅在90至100歐元之間。同樣的情況也發(fā)生在所謂的“Voice in Action”技術(其制造商聲稱這是一個“人工智能驅動的”系統(tǒng))上,該技術在美國的快餐店接收顧客的得來速訂單;事實上,超過70%的訂單都是由菲律賓的員工處理的。人類學家瑪麗·格雷(Mary Gray)和微軟的高級首席研究員西達爾斯·蘇里(Siddharth Suri)形象地稱這種將人力勞動隱藏在數(shù)字前臺的做法為“幽靈工作”。

將人工智能僅視為一種技術——無論是機器學習還是數(shù)字平臺——都是錯誤的。這引出了關于自動化的話語,而近年來的人工智能熱潮正是其最新的迭代。科技進步的理念早在戰(zhàn)后時期之前就已出現(xiàn),但在二戰(zhàn)之后,這些理念逐漸凝聚成了一種通常被用來削弱工人權力的意識形態(tài)。

這種意識形態(tài)的初始版本是二戰(zhàn)后美國出現(xiàn)的自動化話語,該話語主張所有技術變革必然指向人類勞動,尤其是藍領工業(yè)勞動的消失。它是兩種相互交織的現(xiàn)象的直接產物。首先,是在激進的1930年代后形成的工會組織力量,這對資本構成了威脅;其次,是戰(zhàn)后時期非凡的技術熱情。從1930年代開始,美國企業(yè)就試圖將自己及其產品描繪為帶來左翼激進分子曾與政治革命聯(lián)系在一起的那種烏托邦式未來的源頭。(例如,杜邦公司承諾通過化學實現(xiàn)“革命性”變化以及“更好的生活”,而不是財產的重新分配。)

二戰(zhàn)的勝利、政府資助的技術突破以及隨之而來的經濟繁榮似乎印證了這種觀點。正如1955年《商業(yè)周刊》所說,人們“感到實驗室和工廠里誕生了某種新事物和革命性事物”。因此,從工業(yè)領袖到工會官員,再到學生運動成員,甚至一些激進的女權主義者,都覺得或許美國技術能夠克服工業(yè)資本主義生產中最痛苦的特征:階級斗爭和工作異化。

這種普遍的信念促使福特汽車公司的一位生產副總裁創(chuàng)造了“自動化”一詞,用來描述公司通過再造工業(yè)社會本身的過程,以對抗工會、惡化工作條件。福特公司及其他公司很快將“自動化”描繪成一種將根本改變工業(yè)工作場所的革命性技術。自動化的定義模糊不清,但仍有許多美國人真心相信它會獨立地帶來豐裕,同時消滅無產階級,并且用社會學家和著名公共知識分子丹尼爾·貝爾的話說,用高技能的白領“薪水階層”取而代之。然而,各行業(yè)中的經理和工人所稱的自動化往往只是導致工作條件惡化和加速工作,而非機器代替人工勞動。

AI就像早期的機械化形式一樣,后者包括自20世紀50年代以來對白領辦公室工作的計算機化機械化,其中雇主的目標是將技術含量較高的白領工作轉變?yōu)楦阋说陌爰夹g性工作。在20世紀下半葉,計算機制造商和雇主推出電子數(shù)字計算機,意圖降低文職人員的工資成本。他們用大量低薪的女性操作打孔機來取代熟練的秘書或辦事員,這些操作員生產的打孔卡片被用于大型批處理計算機中。

結果是文職人員的數(shù)量增加了,而不是減少了,但新的工作比以前的工作更差。這些工作更加單調,工作節(jié)奏也加快了。在20世紀的最后四分之一里,雇主成功地說服中層管理人員自行承擔文書工作,為他們配備了臺式電腦以便自行完成打字、歸檔和通信工作,這些工作曾經由公司付費給文職人員完成。這種工作降級的方式在今天的白領工作中仍然很常見。

自動化話語的力量在于,它迎合了一種科技進步主義,這種進步主義即便在今天,仍吸引著左翼中的某些傾向,如所謂的加速主義者,他們認為工業(yè)化的發(fā)展本身會產生無產階級革命的條件。

一些工會在自動化浪潮中做出妥協(xié),如美國國際長途和倉庫工人工會成功地在集裝箱化的過程中爭取到對老員工的退休福利,但大多數(shù)工會卻未能抵抗自動化話語的影響。美國肉類包裝工人聯(lián)合會允許公司引進工具設備,期望獲得退休福利和轉崗機會,但最終自動化并未解決工人失業(yè)的問題,反而導致工會瓦解。類似的情況在現(xiàn)代肉類加工行業(yè)仍然存在。

文章認為,今天的“AI”已成為“自動化”的同義詞,帶有類似的、不切實際的技術烏托邦敘述。歷史表明工人和組織者需要警惕這些過度的技術敘事,拒絕將其視為不可逆轉的文明進程,而應將技術視為工作場所的一部分,工人有權對此進行民主治理。AI并非一種具體的革命性技術,它更多是一種用來削弱工人力量的技術敘事。文章建議工人拒絕盲目崇拜科技進步,以爭取在工作場所中對技術的自主權,避免因“進步”之名犧牲勞動權益。

心理治療機器人的悖論

當心理治療資源稀缺的現(xiàn)實遭遇以Chatgpt為代表的聊天機器人的興起,越來越多的人開始向人工智能尋求心理健康支持。當心理治療機器人成為一門越來越大的生意,其中暗藏的危險也逐漸暴露出來。Jess McAllen近日在《異見者》(The Baffler)雜志發(fā)表了《機器里的治療師》(The Therapist in the Machine)一文,結合自身經歷對這一現(xiàn)象及其背后的隱憂進行了深入探究。

澎湃思想周報|AI關乎權力而非技術;心理治療機器人的悖論


從新西蘭搬到美國之后,McAllen有5年時間沒有進行心理治療。在她看來,心理治療機器人是美國醫(yī)療選擇悖論的化身。在新西蘭,只要評估醫(yī)生認為你確實有需要,公共心理健康系統(tǒng)就會指派一名心理醫(yī)生,但在美國,她不得不從零開始自己尋找心理醫(yī)生。她為此求助了Psychology Today、 Alma和 Headway等多家提供心理咨詢服務的平臺,結果卻迷失在了令人眼花繚亂的搜索結果之中:你不僅要選擇治療師的學位、性別、外貌,還必須找到與自己匹配的流派、個性甚至政治立場,而無論怎么選擇都要付出高昂的費用。

這些困難導致很多需要心理健康治療的人無法得到專業(yè)幫助,這個所謂的治療缺口就成為了商機。幾年前,BetterHelp和Talkspace這兩家科技公司開始為訂閱用戶提供和有執(zhí)照的治療師進行文字和視頻聊天的服務。在積極投放廣告和在社交網絡上開展營銷等策略之下,這種模式一度很受歡迎,兩家公司的利潤都達到了數(shù)百萬美元。但最近,在線治療的客戶紛紛表示,他們在不同的治療師之間輾轉,這些治療師似乎總是敷衍了事半途而廢,而線上治療師們則抱怨這些平臺重數(shù)量輕質量,總是鼓勵他們承擔不可持續(xù)的工作量。現(xiàn)在,層出不窮的心理治療機器人試圖更進一步,通過完全拋棄人類來規(guī)避人類的缺陷。

McAllen指出,早在半個多世紀之前,研究人員就開始實驗將人工智能應用于心理治療領域。1966年,麻省理工學院教授約瑟夫·維澤鮑姆(Joseph Weizenbaum)創(chuàng)造了第一個聊天機器人ELIZA,可以被看作是今天的心理治療機器人的原型。ELIZA以蕭伯納的戲劇《皮格馬利翁》中的女主人公命名,通過人工智能的 “自然語言處理”分支進行操作。在1966年一篇概述其研究成果的論文中,維澤鮑姆討論了病人與治療師之間的投射,他寫道:“舉例來說,如果一個人告訴精神科醫(yī)生‘我坐了很久的船’,而他的回答是‘跟我說說船吧’,我們不會認為他對船一無所知,而會認為他這樣引導隨后的對話是有某種目的的。”維澤鮑姆認為這種假設有利于治療技術的發(fā)展,因為這意味著人工智能不需要掌握關于現(xiàn)實世界的明確信息?!癊LIZA至少表明了制造和維持理解的假象是多么容易,那么具有可信度的判斷的假象同樣如此。這其中潛藏著某種危險?!?br>
這種危險顯然沒能阻止當代科技公司乃至醫(yī)療保健公司不斷推出新的改進版本的心理治療聊天機器人來賺取利潤。最近發(fā)布的一項研究表明,與寫日記、心理教育小冊子等傳統(tǒng)的自主行為干預手段相比,心理治療機器人并沒有任何突出之處。這項研究的作者之一Todd Essig博士告訴McAllen,這些人工智能應用程序正在利用“科學”營銷來實現(xiàn)及早套現(xiàn)。套現(xiàn)的具體形式包括提供熊貓造型的AI治療師(Earkick,加入每年40美元的高級計劃可以為“熊貓”佩戴飾品)、提供不同形象、性格和特長的AI治療師供用戶選擇(Heartfelt Services,提供大胡子Paul、神話人物般的Serene和大大咧咧的Joy三種AI治療師選項),等等。

大多數(shù)情況下,AI心理治療工具的創(chuàng)造者都聲稱他們至少在增強而非取代傳統(tǒng)的心理健康治療,這些工具的一個顯著優(yōu)勢是可以隨叫隨到。但McAllen指出,除了對治療費用的考量,治療師提供有限度的服務還有其他原因。太多斷斷續(xù)續(xù)的交流會削弱每次專門治療的效果,而即時生成的、無邊界的回復可能會強化病人尋求安慰的行為,從而導致他們在感到痛苦時忽視自己的自主性。但也有一些例外,布魯克林綜合心理服務機構的臨床心理學家瑪麗·梅爾卡多(Marie Mercado)認為,對于邊緣性人格障礙的患者而言,知道在治療時間之外理論上可以聯(lián)系到自己的治療師是有好處的,但他們需要提前和治療師約定回應方案。她也承認,對于恐慌突然發(fā)作無法立刻聯(lián)系到人類治療師的人來說,人工智能或許能夠提供幫助,但仍然伴隨著過度介入的風險。

McAllen寫道,盡管人們很容易認為人工智能心理治療被過度炒作了,因此會像NFT或是元宇宙一樣歸于失敗,但事實上,它已經在既有的醫(yī)療體系中獲得了巨大的發(fā)展勢頭。英國國家醫(yī)療服務體系(NHS)采用了一款叫做Limbic的人工智能應用程序幫助篩查和評估尋求心理健康治療的人。2021年,NHS參與了心理健康聊天機器人Wysa的研究。此后,該公司與 NHS 展開了一系列合作,其中包括即將推出的 “針對焦慮和情緒低落等常見心理健康問題”的人工智能 CBT項目。在美國,F(xiàn)DA已授予了Wysa公司開發(fā)的由人工智能主導的 “心理健康對話代理器”以“突破性設備稱號”,表明其將與該公司合作加快監(jiān)管流程。除了眾多心理治療聊天機器人之外,還有一些人工智能初創(chuàng)公司致力于將治療師的部分工作自動化。例如由沃頓商學院校友運營的Marvix AI能夠記錄治療過程并自動生成筆記,形成一個或者兩三個診斷代碼,號稱每天可以為臨床心理醫(yī)生節(jié)省一到兩個小時,每年為其增加4.3萬美元的收入。在McAllen看來,將不斷提高生產力的價值體系推廣到心理治療領域有著很大的局限性。把心理治療視作可以量化的、因而可以甚至應該提高效率的過程,這種觀點與經常發(fā)生倒退并且伴隨著很多復雜性的心理疾病的混亂現(xiàn)實相悖離。

Heartfelt Services的創(chuàng)始人Gunnar J?rgen Viggósson是一名正在攻讀心理學本科學位的計算機科學家,他承認人類治療師在過去發(fā)揮的作用,但認為人工智能的優(yōu)勢恰恰在于它沒有人性。Viggósson認為人們在和人工智能聊天時不會將自己的情感投射于其上,不會覺得它耐心有限或是擔心它覺得自己怪異,但McAllen指出,事實上,受到嚴重精神疾病折磨的人——無論是精神錯亂、狂躁癥或強迫癥發(fā)作還是創(chuàng)傷后應激障礙——很可能會將自我投射到聊天機器人上。這正是維澤鮑姆對ELIZA得出的結論之一。一個人在異常精神狀態(tài)下的確可能用人工智能的回應促成甚至引導魯莽的決定,從而為自己和他人帶來嚴重后果。但在心理治療機器人的創(chuàng)造者們看來,這些面臨嚴峻精神危機的人似乎并不是這些人工智能應用程序的目標受眾。

McAllen進一步指出,過去心理治療針對的主要是患有嚴重精神疾病的人,直到20世紀90年代最后一波精神病患者去機構化浪潮之后,西方各國才開始開展減少對心理疾病的污名化的運動,由此帶來了人們對于心理治療的觀念變化:現(xiàn)在人們普遍認為心理治療是一種必要的大腦調整,所有人都應該參與其中——如果負擔得起的話。到了2000年代的中后期,傳遞的信息又發(fā)生了微妙的變化,宣傳活動,尤其是由政府資助的宣傳活動開始把重點放在更好接受的心理健康問題和含混不清的心理健康概念之上。這些修辭促成了政策上的重大勝利,如2008年的《心理健康與成癮法案》(Mental Health Parity and Addiction Act)和2010年的《平價醫(yī)療法案》(Affordable Care Act),這兩項法案都要求醫(yī)療保險公司將心理健康治療與其他醫(yī)療狀況同等對待。其他相關的后果還包括健康產業(yè)的爆炸式發(fā)展、高產的自助書籍作者對精神類藥物的妖魔化以及急癥治療快速被 “預防治療”所取代。這些結構性變化制造出了真空,科技公司、私募基金和硅谷風投都試圖瞄準這一領域推出產品。公共醫(yī)療保險和私人保險公司很可能都會轉向人工智能心理治療工具,從而以更低廉的價格擴大治療范圍。但心理治療資源向一般心理問題傾斜的結果是 ,患有嚴重精神疾病的人想要獲得亟需的治療變得更困難了,這一人群需要的是更加復雜的心理治療,這一缺口顯然是人工智能無法填補的。

McAllen的切身體會是,只有找到一個和自己的狀況相匹配的專業(yè)人士,才能得到真正的幫助。要做到這一點,哪怕不對美國的醫(yī)療體系進行根本性的改革,為想要接受治療師培訓的人提供獎學金或補貼就能大大緩解目前專業(yè)人士短缺的問題;提高報銷比例,讓治療師放心和保險公司簽約,也能夠解決很多人因為費用高昂而對專業(yè)治療望而卻步的問題。試圖用人工智能治療師來填補缺口則不過是掩耳盜鈴而已。

巧合的是,伯克利大學哲學教授Alva No?近日在《萬古雜志》(Aeon)發(fā)表的《討伐機器》(Rage Against the Machine)一文,恰好從哲學的視角解釋了人工智能的局限性,其中對于人類語言的深刻分析充分說明了心理治療機器人為什么難以取代人類心理治療師。

在No?看來,圖靈測試本身就具有誤導性。其中至關重要的一點是,圖靈在測試中用打字代替了說話,然而“言語是一種伴隨呼吸的、熱烈的運動,總是在語境當中,在需要、感受、欲望、投射、目標和限制的背景之下,與他人共同展開”。在他看來,與文字信息相比,言語和舞蹈的共同之處更多,如今我們在鍵盤的統(tǒng)治之下太過自如,以至于甚至沒能注意到文本如何掩蓋了語言的身體現(xiàn)實。

圖靈測試中更為隱蔽的一個花招則是用游戲代替了有意義的人類交流。No?認為,對生活的游戲化是圖靈最隱秘而令人不安的遺產之一。圖靈對于游戲的理解是片面而扭曲的,從計算的角度來看,游戲是可理解的虛擬世界的透明結構,在其中規(guī)則限制了行動,價值判斷和成敗標準都是確定無疑的,但真正的游戲同時也是競賽,是我們接受考驗的試驗場,我們的局限性會被暴露出來,我們的力量和脆弱都會一并顯現(xiàn)。一個參加國際象棋比賽的孩子可能會極度焦慮以至于感到惡心,這種本能表達并不是偶然的附帶現(xiàn)象,也不是對游戲而言沒有本質價值的外在表現(xiàn),而是游戲的內在組成部分。也就是說,人類不僅僅是遵循規(guī)則或規(guī)范的行動者,我們的行動總是(至少是潛在的)沖突場所。

就語言來說,我們說話時不會盲目地遵循規(guī)則,規(guī)則本身就是可供爭奪和可以爭論的。我們從一開始就不得不面對交談的困難,即使在實事求是且沒有過多壓力的多數(shù)情況下,我們也很容易誤解對方。在交談中,質疑用詞,要求重新表述、重復和修正,幾乎是不可避免的。也就是說,交談從一開始就包括了對交談的反思和批評,我們在使用語言的同時也在改變語言,語言是一個捕捉和釋放、參與和批評的場所,是一個過程。而這顯然是機器模擬無法做到的。“人類不是訓練出來的。我們擁有經驗。我們學習。例如,對我們來說,學習一門語言不是學習生成‘下一個詞’,而是學著工作、玩耍、吃飯、愛、調情、跳舞、打架、祈禱、操縱、談判、假裝、發(fā)明和思考。最關鍵的是,我們不僅僅是吸收學到的東西然后不斷繼續(xù);我們總是抵抗。我們的價值判斷總是無定論的。我們不僅僅是詞語的生成器。我們是意義的創(chuàng)造者?!?br>

鮮花

握手

雷人

路過

雞蛋

關注我們:東遠物聯(lián)

抖音

微信咨詢

咨詢電話:

199-2833-9866

D-Think | 廣州東遠智能科技有限公司

地址:廣州市白云區(qū)北太路1633號廣州民營科技園科創(chuàng)中心2棟16樓

電話:+86 020-87227952 Email:[email protected]

Copyright  ©2020  東遠科技  粵ICP備2024254589號

免責申明:部分圖文表述來自于網絡,如有侵權請聯(lián)系作者刪除!