前言
“AI小作文”引科大訊飛、百度互掐
5月 24日,科大訊飛盤中接近跌停,起因直指兩篇網傳“小作文”。
(資料圖片)
盤后,科大訊飛在深交所互動易平臺上對上述傳言回復道,納入實體清單消息是對2019年5月23日相關信息的復制粘貼??拼笥嶏w已于2019年10月被列入實體清單。關于采集用戶隱私數據消息,科大訊飛則回復道,相關流傳文字及截圖,公司初步判斷該段不實信息系某AI生成式軟件生成。
科大訊飛剛剛辟謠,就引來百度文心一言市場負責人張文全在朋友圈怒懟,稱:“聽聞有友商把自己股價大跌,歸咎于有人利用文心一言寫了篇命題小作文,也是醉了。先別說小作文這事真假(目前看來只怕是策劃痕跡太重),如果AI作文有這本事,百度員工自己先炒一下自己股價不香嗎?中國發(fā)展自己的大模型技術挺不容易的把精力放到正事上吧,還請友商解決好自己的問題,別動不動就碰瓷別人,大家的眼睛都雪亮的?!?
5月25日,科大訊飛股價低開低走,截至收盤,報55.61元,跌幅1.7%。
盡管是兩家公司的互掐,但背后也引申出來更大的法律問題:隨著人工智能技術愈發(fā)普及,應當如何規(guī)避AI風險?相關平臺方是否要擔責?
AI小作文引來“互掐”
24日下午,市場上出現了和科大訊飛相關兩個傳言。第一篇小作文稱,有媒體援引知情人士的話稱,美國正在考慮是否將科大訊飛、美亞柏科等加入“實體名單”,禁止它們使用美國的組件或軟件。第二篇小作文稱,近期,科大訊飛被曝涉嫌大量采集用戶隱私數據,并將其用于人工智能研究。
針對第一個傳聞,科大訊飛回復稱,已于2019年10月被列入實體清單。被列入實體清單后,科大訊飛已迅速切換到以國產供應鏈為主的非美供應鏈體系,繼續(xù)為客戶提供優(yōu)質的產品和服務,業(yè)務運營未受到重大影響。
而關于第二個傳聞,則是“AI詐騙”??拼笥嶏w稱,根據5月23日下午相關流傳文字及截圖,公司初步判斷該段不實信息系某AI生成式軟件生成。并表示,“對于惡意抹黑、捏造虛假信息,損害我司名譽權的機構或個人,公司會借助法律武器保護公司和投資者利益。同時,公司高度重視企業(yè)信息安全及個人隱私信息保護,將信息安全管理作為公司發(fā)展的重要支撐戰(zhàn)略之一,并建立了完善嚴格的信息安全和隱私保護體系。”
雖然并未點名是來自于哪家AI生成式軟件,但從流傳的截圖可知,該軟件的標志正是百度的大語言模型、生成式AI產品“文心一言”。
這也引來文心一言負責人直接“開懟”。5月24日晚,百度文心一言市場部負責人張全文通過朋友圈回應道,“聽聞有友商把自己股價大跌,歸咎于有人利用文心一言寫了篇命題小作文,也是醉了。先別說小作文這事真假(目前看來只怕是策劃痕跡太重),如果AI作文有這本事,百度員工自己先炒一下自己股價不香嗎?”
張全文直言,中國發(fā)展自己的大模型技術挺不容易的,把精力放到正事上,請友商解決好自己的問題,別動不動就碰瓷別人。他還表示對于無端的惡意抹黑污蔑,將采取法律措施。
對于百度的最新回復,科大訊飛方面暫未向記者作出回應。
AI龍頭一季度虧損
今年初以來,人工智能賽道因ChatGPT而大熱,有著“人工智能國家隊”之稱的科大訊飛也乘著東風,迎來股價翻倍上漲,相比年初市值已飆漲500億元, 但回到公司基本面,今年一季度,科大訊飛近三年來扣非凈利潤首季出現首次虧損, 一季報顯示,實現營業(yè)收入28.88億元,同比下降17.64%;歸屬于上市公司股東的凈利潤虧損5790萬元,上年同期凈利潤為1.1億元;扣非凈利潤虧損3.381億元,上年同期為盈利1.459億元。
對于業(yè)績變化的原因,科大訊飛的解釋是,一方面是由于外部環(huán)境的影響,二是公司被列入實體清單后,從供應鏈到相關的合同簽署需要調整的過程。此外,就是研發(fā)投入增加。公司還表示,訊飛認知大模型研發(fā)攻關的新增投入一定程度上影響了當期利潤。
科大訊飛于5月6日推出星火認知大模型,科大訊飛董事長劉慶峰表示,認知大模型成為通用人工智能的曙光,科大訊飛有信心實現“智能涌現”。當前訊飛星火認知大模型已經在文本生成、知識問答、數學能力三大能力上超過ChatGPT。
劉慶峰還透露,6月9日,星火大模型將突破開放式問答,多輪對話能力和數學能力再升級;8月15日,星火認知大模型將突破代碼能力,多模態(tài)交互再升級;10月24日,星火認知大模型通用模型將直接對標ChatGPT,其中中文能力超越后者,英文能力與后者相當。
自ChatGPT大火之后,國內的人工智能領域就出現了江湖混戰(zhàn)的局面。百度推出“文心一言”、阿里有“通義千問”、商湯推出“日日新”大模型,科大訊飛有“星火”大模型與之正面交戰(zhàn)。
當前,市場人士普遍認為,上游的平臺已經基本搭建完畢,下一階段大模型將作為觸達人工智能的關鍵,AI+行情將以大模型為入口向AI+消費電子、AI+機器人等硬件領域與眾多AI+應用領域演繹。
AI詐騙誰來擔責?
不過,ChatGPT的問世,也引發(fā)了各方對于大語言模型的監(jiān)管與安全問題的擔憂。3月31日,意大利率先宣布禁用ChatGPT。4月3日前后,德國、英國、韓國等監(jiān)管部門紛紛采取措施加強對ChatGPT監(jiān)管。
4月11日,我國也出臺了第一份對生成式AI進行監(jiān)管的文件,國家互聯網信息辦公室正式發(fā)布《生成式人工智能服務管理辦法(征求意見稿)》。同日,美國商務部就ChatGPT等AI工具監(jiān)管措施公開征求意見。各地對于大模型監(jiān)管的高度重視凸顯了大模型自主可控對于個人隱私、行業(yè)數據乃至國家安全的重要意義。
針對此次“AI小作文”所延伸出來的AI詐騙問題,科大訊飛在互動平臺上也作出回應稱:為更好地助力反詐工作,科大訊飛成立“反詐AI研究所”,在助力公安機關打擊防范電信網絡詐騙犯罪工作中,依托智能語音等人工智能技術應用,構建“打防宣”三位一體的反詐新格局。比如,在防范方面,科大訊飛立足電話類、網絡類和短信類預警識別,進行技術研判分析,預警結果可與通信部門系統對接,對電信網絡詐騙實現“置靜音”“掐斷”等處置。
對于AI詐騙相關的法律問題,北京市京師(上海)律師事務所律師李文玲告訴21世紀經濟報道記者,“如果人工智能生成的文章存在虛假宣傳或誤導性陳述,可能違反有關虛假宣傳的法律,引發(fā)相應的糾紛?!?
她提到,我國目前對于AI自動生成文章的行為,并沒有出臺相應的法律專門作出規(guī)制。不過,她說,“我國《網絡安全法》規(guī)定了,任何個人和組織不得使用網絡侵害他人名譽、隱私及知識產權,使用AI生成虛假信息毫無疑問違反了網絡安全法的相關規(guī)定?;谖覈壳皩ι婕叭斯ぶ悄芫W絡使用的法律規(guī)定,對使用AI可能發(fā)生的侵權行為,可以參照民法典及相關民事法律中的規(guī)定進行處理?!?
對于誰來擔責的問題,李文玲表示,如果是個人或組織使用人工智能系統生成侵犯他人合法權利的文章,使用的個人或組織應當承擔相應法律責任。如果人工智能系統是由某個平臺或提供者提供,該平臺或提供者對于侵權行為有過錯的也應當承擔一定的法律責任。此外,由于人工智能侵權行為的內容多通過網絡傳播,根據我國民法典的規(guī)定,網絡服務提供者如果對于侵權行為沒有及時采取措施的,其對于損失的擴大部分,應當承擔連帶責任。
免責聲明
文 章來源:21世紀報道 ??????
凡資訊來源注明為其他媒體來源的信息,均為轉載自其他媒體,并不代表本網贊同其觀點,也不代表本網對其真實性負責,轉載請聯系原出處。您若對該文章內容有任何疑問或質疑,請立即與后臺小編聯系,平臺將迅速給您回應并做處理。注明本公司原創(chuàng)內容,轉載請與我們聯系。