頭條 | ChatGPT『賺錢』在即,哪些法律風險不容忽視?

來源 | 肖颯lawyer

作者 | 肖颯法律團隊

Chat GPT (Generative Pre-trained Transformer) 是一種基於神經網路的語言模型,是OpenAI團隊於2019年推出的一種人工智能技術、基於預訓練的轉換器模型,可以非常智能的生成關聯上下文的自然語言文本。

颯姐團隊成員們經過長時間的使用和研究GPT後,初步判斷GPT在目前主要有四個方面的應用,分別是: 文本生成、文本分類、問答對話、機器翻譯等。

今天我們就來為大家分別講講這些應用在當前的B端或C端用戶中是 如何落地、賺錢的,並在此基礎上講講他們分別有哪些法律風險需要注意。

頭條 | ChatGPT『賺錢』在即,哪些法律風險不容忽視?

一、 ChatGPT目前存在的商業應用

《一》 文本生成

目前文本生成是ChatGPT最廣泛應用的一個領域。

用戶隻需要先輸入一段前文,ChatGPT就會根據前文中存在的語言模式和規則,生成一個後文,還可以根據前文中的上下文信息和語言模式來自動判斷後文的語言形式和風格,因此可以被用來生成包括而不限於新聞報道、小說、詩歌、廣告文案等各類文章。

目前落地的商業化應用:

BuzzFeed是一個美國的新聞聚合網站,將GPT用於即時新聞內容創作;

Iris Dating是一個類似國內某陌、某目的約會App,將GPT用於生成個性化簡歷。

賺錢模式:此類商業應用主要將ChatGPT用於特定文本的生成,一方面可以幫助企業節省文案撰寫人力成本,提高生產效率;另一方面生成的文字作品可以成為其產品,產生商業收益。

《二》 文本分類

目前落地的商業化應用:

Dealtale:一家信息技術公司,將GPT用於員工績效營銷分析;

ZoomInfo:是一家為B端客戶服務的營銷大數據公司,為企業客戶提供銷售線索大數據服務,將GPT用於輔助分析銷售數據及營銷模式;

Zeta:一家與ZoomInfo類似的公司,同樣用GPT來提高營銷的效率

《三》 問答對話

目前落地的商業化應用:

Nerdy是一家創立於2007年,總部位於美國密蘇裡州的實時在線教育平臺,其本身就有一個叫Varsity Tutors的期間業務,利用技術和AI大規模提供個性化的實時學習。

目前該公司利用GPT進行智能課程創作和對學院進行課業輔導;

Glassbox是一個大數據分析公司,將GPT用於與客戶互動聊天。

《四》 機器翻譯

目前落地的商業化應用:

Google是全球最大的搜索引擎公司也是自然語言處理領域的領導者之一。

目前該公司的研究人員正在使用ChatGPT模型進行機器翻譯的研究。

Facebook《現已改名Meta》是全球最大的社交網路公司之一,也在使用ChatGPT模型進行機器翻譯的研究。

國內的大廠如鵝廠、某易等也都在進行相關研究,希望將該功能內置到自己產品中

賺錢模式:ChatGPT應用於機器翻譯領域可以幫助企業快速進行多語言翻譯,降低翻譯成本。

同時還可以將ChatGPT用於國際貿易領域,例如跨境電商、跨境交易等,增加商業機會。

也可以幫助普通用戶進行跨境旅行,促進文化交流等。

二、法律風險

目前ChatGPT已經在多個領域中成功實現的商業化應用,這些應用都有著不同的商業價值和賺錢模式,諸多廠商已經開始搶先佈局。

但其作為一種人工智能技術,雖然在自然語言處理領域取得了顯著的進展和應用,但颯姐團隊在其中也發現了一些潛在的法律風險,雖然目前暫時沒有產生訴訟糾紛,但不僅B端企業用戶們不能掉以輕心,C端用戶們也需要防止自己的權利被侵犯。

《一》 涉及隱私和數據保護的風險

ChatGPT模型需要大量的數據進行訓練,這些數據可能包含用戶的個人信息,如姓名、地址、電子郵件等。

如果這些數據不受到充分的保護,可能會導致用戶的隱私受到侵犯。

此外,如果ChatGPT模型用於處理敏感數據,例如醫療或金融領域的數據《例如目前某巢醫學就已經將其用於臨床決策的輔助工作了》,那麼必須確保數據受到充分的保護,以避免可能的違法行為。

颯姐團隊提示:如果ChatGPT可能需要訪問用戶的個人信息,如姓名、醫療隱私、賬戶數據、個人地址、行蹤軌跡等,那麼企業務必註重數據合規的建設, 如果該企業沒有采取適當的措施來保護這些信息,例如使用加密和安全傳輸協議,就可能會導致用戶的隱私受到侵犯,從而引發民事糾紛風險、甚至產生行政處罰、刑事等風險。

《二》 涉及版權和知識產權的風險

與AI繪畫一樣, ChatGPT的訓練數據中可能包含受版權和知識產權保護的內容,例如新聞文章、小說和電影劇本等。

如果ChatGPT模型在生成的文本中包含了這些受保護的內容,可能會侵犯版權和知識產權,從而引發相關的法律糾紛。

颯姐團隊提示:如果一個公司使用ChatGPT模型生成一篇新聞報道,而這篇報道的內容與一家新聞機構的報道非常相似,甚至是幾乎相同的,那麼 可能會侵犯後者的著作權,從而引發侵權訴訟。

另外,深圳南山法院曾經有過判例,某鵝廠利用AI工具生成的文章被不當轉載引發侵權訴訟, 法院肯定了AI作品的可版權性並認定轉載行為構成侵權。

《三》 算法歧視的風險

ChatGPT的算法中可能包含了偏見和歧視的內容,例如種族、性別和宗教等方面的偏見《目前已經有不少實例》。

如果ChatGPT模型在生成的文本中包含這些偏見和歧視,可能會引發糾紛《例如人格權、名譽權等糾紛》。

颯姐團隊提示:如果一個ChatGPT聊天機器人在與用戶交互時,使用了存在種族、性別、長相、宗教等方面的,具有偏見和歧視性的表達,導致用戶受到心靈創傷、不公平待遇或其他損失,那麼用戶可能會對企業提起相關訴訟。

當然,目前尚未出現相關實例,我們還需要時間進一步觀察算法歧視在人工智能治理領域的進展,颯姐團隊後續會繼續發表相關研究文章,敬請關注。

《四》 不良引導的風險

我們在之前的文章中就已經說過,ChatGPT雖然足夠智能好用,但它不能像人類一樣思考和判斷,這就意味著在某些情況下, 其生成的文本可能會包含錯誤、誤導性或其他有害的信息。

颯姐團隊提示:如果一個ChatGPT聊天機器人在與用戶交互時生成了一條有害的信息,例如介紹如何自殺或教唆犯罪等,且這條信息還 真的導致了實際的傷害或損失發生,那麼使用GPT的企業往小了說可能需要承擔民事侵權,往大了說承擔 刑事責任也有可能。

因此,我們在此提示企業用戶,慎重對待ChatGPT的商業化應用,提前做好測試和相關合規工作並留痕。

對於普通用戶來說,需要明辨是非,切勿過於相信機器人的回答。

寫在最後

颯姐團隊認為,ChatGPT作為一種人工智能技術,雖然在自然語言處理領域有廣泛的應用和前景,但也面臨著一些法律風險和挑戰。

為了避免這些風險,開發人員和企業應該采取適當的措施來確保ChatGPT模型的 安全性和合法性,包括數據保護、版權和知識產權保護、歧視和偏見的預防等。

同時,監管機構也需要加強對ChatGPT技術的監管和監督。

頭條 | 美國版權局:通過ChatGPT、Midjourney等AI自動生成的作品,不受版權法保護

頭條 | 淺談互聯網下的音樂版權問題

聚焦 | 許國利被執行死刑為何引發關注?