OpenAI反擊紐約時報

OpenAI反擊紐約時報版權訴訟指控 暗指對方欺騙AI

OpenAI反擊紐約時報版權訴訟指控。作為對《紐約時報》提起的訴訟的回應,OpenAI提供了證據。這間領先的人工智能開發公司強調其對新聞業的承諾,宣稱「我們支持新聞業,與新聞機構合作,並認為《紐約時報》的訴訟毫無根據」。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! OpenAI反擊紐約時報版權訴訟指控 OpenAI還指責《紐約時報》報道不完整,聲稱「《紐約時報》未完全揭示真相」。該公司暗示,報紙使用的例子來自於在第三方網站上廣泛可得的舊文章,並且暗示《紐約時報》在AI提示中設計了最具損害性的證據。 上回提要:《紐約時報》對微軟及OpenAI提出侵權訴訟 OpenAI表示:「他們似乎故意操縱提示,經常包含文章的長篇摘錄,以使我們的模型背誦。」這意味著,《紐約時報》在提供不自然的提示作為證據時存在不誠實行為。「即使使用這樣的提示,我們的模型通常不會像《紐約時報》所暗示的那樣行為,這表明他們要麼指示模型背誦,要麼從眾多嘗試中選取了他們的例子。」 提示操縱是一種常見的做法,人們可以使用特定的提示來欺騙人工智能模型,使其做出平常情況下無法得到的特定回應。 OpenAI強調與新聞業的合作,稱:「我們在技術設計過程中努力支持新聞機構」,並強調了AI工具的部署,這些工具可以幫助記者和編輯,並實現AI和新聞業的共同增長目標。OpenAI最近與《滾石》的出版商Axel Springer建立了合作夥伴關係,以提供更準確的新聞摘要。 針對《紐約時報》所指的「背誦內容」問題,OpenAI承認這是一個不常見但存在的問題,他們正在努力予以減輕。「記憶是學習過程中的罕見失敗,我們不斷在這方面取得進展」,他們解釋並捍衛了他們的訓練方法。「使用公開可得的互聯網資料來訓練AI模型是合理使用。」 即便如此,OpenAI承認了倫理考慮的合法性,並提供了出版商的選擇退出過程。 AI訓練和內容儲存 目前看來,內容創作者和人工智能公司之間的爭端似乎是一個零和博弈,因為其根源在於人工智能模型的訓練方式。 這些模型是使用包括書籍、網站和文章在內的大量數據集開發而成。其他模型使用的則是繪畫、插圖、電影、聲音和歌曲等,具體取決於它們被訓練來創造什麼。然而,這些模型並不保留特定的文章或數據,而是分析這些資料以學習語言模式和結構。 這個過程對於理解指控的性質和OpenAI的辯護至關重要,以及為什麼AI訓練者認為他們的業務在合理使用內容,就像藝術學生研究其他藝術家或藝術風格以了解其特徵一樣。 然而,包括《紐約時報》和暢銷作家在內的創作者們認為,OpenAI等公司在不誠實地使用他們的內容。他們主張他們的知識產權在未經允許或報酬的情況下被利用,從而產生了可能與並轉移觀眾對原始內容的AI生成產品競爭的情況。 《紐約時報》對OpenAI提起訴訟,稱其在未經明確許可的情況下使用他們的內容削弱了原始新聞的價值,強調對獨立新聞生產及其對社會的成本造成的潛在負面影響。可以認為,無論提示多麼精心,如果它「背誦」了任何一種受版權保護的內容,那是因為它被使用了。 這是否是公平使用,是由法庭來決定。這場法律爭論是一場可能塑造人工智能、版權法和新聞業未來的法律運動的一部分。隨著案件的發展,它無疑會影響有關將人工智能融入內容創作以及數字時代知識產權所有者權益的討論。 儘管批評訴訟的關鍵點,OpenAI仍然認為這不是一個零和遊戲的情況。Altman的公司表示,他們準備伸出橄欖枝,在某個地方尋求積極的結果。 「我們希望與《紐約時報》建立建設性的合作夥伴關係,並尊重其悠久的歷史,包括在60年前報導了第一個工作的神經網絡並捍衛第一修正案的自由。」

Read More
AI聊天機械人可能受越獄攻擊

研究人員警告:AI聊天機械人可能受越獄攻擊 敏感話題將被「解禁」

新加坡南洋理工大學(NTU)的一組計算機科學家團隊最近發現了一種繞過AI聊天機械人安全措施的新方法,AI聊天機械人可能受越獄攻擊,這將對AI聊天機械人的安全性帶來潛在威脅。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 該團隊非正式地稱之為「越獄」,正式名稱為「Masterkey」的攻擊方法,利用多個聊天機械人,包括ChatGPT、Google Bard和Microsoft Bing Chat等,以兩部分訓練的方式進行。「Masterkey」攻擊的過程包括逆向工程和繞過創建,使得AI聊天機械人更容易受到「越獄」。 通過這種技術,聊天機械人可以相互學習彼此的模型,從而繞過對於禁止或敏感話題的限制。NTU研究團隊強調這一發現漏洞的潛在風險,以及對AI聊天機械人安全性的影響。 這個過程涉及對一個大型語言模型(LLM)進行逆向工程,揭示其防禦機制,通常會阻止對於帶有暴力、不道德或惡意意圖的提示或詞語的回應。通過逆向工程這些信息,團隊可以指示另一個LLM創建一個繞過,使得第二個模型能夠更自由地表達自己。 AI聊天機械人可能受越獄攻擊 凸顯LLM AI聊天機械人的適應能力的重要性 「Masterkey」攻擊聲稱在LLM聊天機械人方面具有潛在的有效性,即使LLM聊天機械人在未來加入了額外的安全措施或進行了修復。研究團隊聲稱,相對於傳統的基於提示的方法,他們的方法在「越獄」LLM聊天機器人方面具有三倍的成功率。 劉洋教授是「Masterkey」攻擊過程的主要推動者,他強調了這一發現對於凸顯LLM AI聊天機械人的適應能力的重要性。該研究團隊的結果挑戰了一些批評家對於AI聊天機械人可能會隨著時間變得「愚蠢」或「懶散」的觀點。相反,「Masterkey」攻擊展示了這些聊天機械人學習和演化的能力,可能對聊天機械人提供者和使用者帶來安全問題。 自從2022年底OpenAI的ChatGPT等AI聊天機械人出現以來,人們一直努力確保這些服務的安全性和包容性。例如,OpenAI在ChatGPT的註冊過程中引入了安全警示,承認可能存在意外的語言錯誤。同時,各種聊天機械人的分支允許一定程度的冒犯性語言,在使用者自由和負責任使用之間取得了平衡。 然而,AI聊天機械人也吸引了惡意行為者的注意,他們在社交媒體上宣傳這些產品的活動通常伴隨著帶有惡意軟件的圖片鏈接和其他形式的網絡攻擊。這種AI應用的黑暗面迅速浮現,揭示了AI被用於網絡犯罪的潛力。台大的概念驗證數據揭示了脆弱性 台大的研究團隊主動聯繫了他們研究中涉及的AI聊天機器人服務提供商,分享他們的概念驗證數據。 他們旨在強調聊天機械人破解的現實情況,並闡明其對安全性的潛在挑戰。該團隊計劃在二月份在聖地亞哥舉行的網絡和分散系統安全研討會上介紹他們的研究結果,進一步詳細介紹Masterkey過程及其對AI聊天機械人領域的影響。

Read More
AI模仿藝術家風格

AI模仿藝術家風格 引發巨大侵權指控

一項驚人的揭示震撼了創意社群,成千上萬的藝術家發現自己卷入了一場與初創公司 Midjourney 的法律戰爭,指控該公司非法從他們的知識產權中獲利。問題的核心在於一份作為正在進行的侵權訴訟的證據提交的電子表格,該訴訟聲稱AI模仿藝術家風格 —— Midjourney 的 AI 圖片生成器在未經藝術家許可的情況下系統性地模仿或模擬了超過 4,700 位藝術家的風格。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 稱AI模仿藝術家風格 從而違反了美國版權法 這場爭議的核心在於作為對 Midjourney 的侵權訴訟的證據提交的一份電子表格。這份文件據稱列舉了數千位藝術家,他們的作品可以被這家初創公司的 AI 複製。這場在加利福尼亞北部進行的訴訟聲稱,Midjourney 的文本生成圖像工具使得 AI 可以在未經藝術家許可的情況下複製他們的風格,從而違反了美國的版權法。這份由 Midjourney 精心挑選的名單涵蓋了各種不同的藝術家,從像 Andy Warhol 和 Norman Rockwell 這樣的偉大人物,到一位六歲的幸運卡藝術比賽的優勝者,該比賽為一家醫院籌集資金。 延伸閱讀:AI或誤導醫生!分析:當遇上「這情況」人工智能就出現固有偏見 訴訟對 Midjourney 的指控和詳細內容 參與訴訟的藝術家們聲稱,Midjourney 和其他文本生成圖像的開發者,包括 Stability AI、Runway AI 和 DeviantArt,使用了侵犯版權的圖像來訓練他們的機器學習模型。這些模型又向公眾提供,使得使用者可以在未經原創作者許可或報酬的情況下生產出潛在的侵權作品。原告主張這樣的做法不僅侵犯了他們的權益,還使市場上充斥著盜版作品,造成了經濟損失。 訴訟更進一步聲稱,Midjourney 的 CEO David Holz 有意編制了這份藝術家名單。該指控暗示 Holz 將這些名字收集在一個 Google 表格中,目的是讓使用者和許可者將這些名字作為輸入提示中的關鍵詞。軟體的目標是在輸入提示中提到這些藝術家時識別並模仿與他們相關的特定風格,從而創造出一個潛在的無限模仿循環。 這場正在加利福尼亞北部進行的法律戰爭始於插畫家Sarah…

Read More
AI或誤導醫生

AI或誤導醫生!分析:當遇上「這情況」人工智能就出現固有偏見

在醫療保健領域中,人工智能(AI)的角色既是一個福音,也可能是一個潛在的禍害。一項最近發表在美國醫學協會期刊(JAMA)上的研究揭示了AI在醫療保健領域中的危險,尤其是由有偏見的資訊提供給醫生所帶來的影響。儘管像美國食品和藥物管理局(FDA)等監管機構已經做出了嚴格的努力,確保AI工具的可靠性和安全性,但該研究指出,即使有解釋,如果AI從有缺陷和有偏見的數據中學習,AI或誤導醫生。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 這項研究由密歇根大學的計算機科學博士生Sarah Jabbour領導,研究重點是用於協助診斷急性呼吸衰竭患者的AI模型,這是一種患者面臨呼吸困難的嚴重狀況。團隊與醫生、護理師和醫師助理等醫療專業人員合作,研究了AI的決策對診斷準確性的影響。 令人驚訝的是,當醫療專業人員僅依賴AI的決策時,他們的準確性提高了約3%。但是,當引入解釋時,即以一張顯示AI在胸部X光上的焦點的地圖形式,準確性進一步提高了4.4%。 AI或誤導醫生 從有缺陷數據中學習時存在的固有偏見 而研究故意在AI的決策過程中引入偏見。例如,AI可能錯誤地建議80歲及以上的老年患者更有可能患有肺炎。研究中參與的教授Jenna Wiens強調,AI在從有缺陷數據中學習時存在的固有偏見,舉例說明基於性別的誤診可能導致偏差結果。不幸的是,當醫生被呈現具有偏見的AI解釋時,即使AI的無關焦點明顯,他們的準確性也下降了約11.3%。 Sarah Jabbour承認,儘管AI解釋提供了潛在的改善途徑,但該研究凸顯了其中的挑戰。與其他研究一致,性能下降的結果表明,即使有解釋,AI模型仍可能誤導醫療專業人員。 Jabbour強調了不同領域之間合作努力的必要性,以開發更易理解的方法來解釋AI對醫生在醫療保健領域中的決策。該研究呼籲進一步研究,敦促探索如何安全地運用AI在醫療保健領域的益處。它還強調了強大的醫學教育的必要性,以使專業人員具備應對AI潛在偏見的知識。 隨著AI在醫療保健領域的整合進展,該研究提出了一個關鍵問題:我們如何確保安全有效地利用AI,同時減輕偏見信息的風險?研究結果強調了解決這些挑戰的迫切性,推動創新,填補AI進展和醫生理解之間的差距。 專家們跨不同領域的合作努力是否能為AI在醫療保健領域中提供確保準確性且不影響可靠性和安全性的未來鋪平道路?該研究不僅作為一個警示,也作為對AI和醫療保健之間微妙關係的持續探索的催化劑,敦促利益相關方以對可能存在的隱患保持敏銳意識的方式來應對不斷變化的情況。

Read More
微軟及OpenAI提出侵權訴訟

《紐約時報》對微軟及OpenAI提出侵權訴訟

《紐約時報》公司日前對微軟及OpenAI提出侵權訴訟。指控微軟和OpenAI在未經授權的情況下使用了《紐約時報》的版權材料來訓練其人工智慧模型,從而涉嫌侵犯版權並產生不公平競爭。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 訴訟在美國紐約南區聯邦地方法院提出,案件核心是微軟和OpenAI的生成式人工智慧(GenAI)工具,包括Bing Chat和ChatGPT,這些工具使用了數百萬篇《紐約時報》的版權文章和其他作品進行訓練。訴訟指控這些人工智能工具可以生成與《紐約時報》內容相似的輸出,包括逐字陳述、緊密概括和模仿其表達風格。 微軟及OpenAI提出侵權訴訟 強調獨立新聞對於民主社會至關重要 《紐約時報》在訴訟中強調,獨立新聞對於民主社會至關重要,並且正變得越來越罕見和寶貴。該公司表示,這是通過長期以來對提供深入報導、專業和獨立新聞的投入實現的,這需要建立起一個龐大而昂貴的組織。 訴訟指出,被告的行為涉嫌侵犯了《紐約時報》的版權,並構成了對其龐大新聞業投資的免費乘坐行為,他們未經許可或支付就利用了這些投資來建立替代性產品。《紐約時報》聲稱,被告的行為威脅到了該公司提供服務的能力。 OpenAI和Microsoft反駁了這些指控,主張使用版權作品來訓練人工智慧產品屬於「合理使用」法律原則的範疇。他們認為這樣的使用具有轉化性,符合合理使用的原則,該原則允許在特定條件下無需許可使用版權材料。 這起訴訟具有重要的意義,因為它可能對生成式人工智慧與版權法之間的關係產生先例性影響。我們將繼續關注案件的進展。 紐西蘭新聞出版商協會公共事務主任 Andrew Holden 對自動化聊天機械人和其他商業人工智能產品未向新聞機構進行適當補償的使用方式表示關切。 Andrew Holden 指出,目前尚無防範人工智能平台利用紐西蘭新聞來訓練其軟體的保障措施。為解決這個問題,新聞出版商協會支持目前正在紐西蘭國會審議的《公平數位新聞談判法案》。該法案旨在迫使微軟、谷歌和Meta等主要科技公司與新聞機構進行談判,確立對新聞內容的公平補償。 他解釋說:「如果沒有該法案,他們沒有特別的理由與我們談判。」協會已提交建議,以加強與人工智慧相關的法案條款,確保利用紐西蘭新聞發展人工智能產品的科技巨頭能夠提供適當的補償給內容創作者。

Read More
加密貨幣搜索量被人工智能超越

一關鍵因素 令加密貨幣搜索量被人工智能超越

根據最新數據,加密貨幣失去了地位,加密貨幣搜索量被人工智能超越。 這一意外的轉變表明,全球Google用戶的網上興趣正在從過去的重點關注於 「Bitcoin」 和 「加密貨幣」 等詞彙轉向與人工智能相關的搜索。根據Google Trends數據的分析,這一趨勢始於2022年8月左右,並持續增長至今。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 加密貨幣搜索量被人工智能超越 主要因為ChatGPT 值得注意的是,OpenAI於2022年11月推出的ChatGPT似乎在這一轉變中起到了關鍵作用,當月關於「AI」的搜索量急劇增加,顯著擴大了AI和與加密貨幣相關搜索詞之間的差距。 從Google Trends的數據可以看出,全球對於「AI」的搜索興趣目前得到了91的Google Trends分數,而「Bitcoin」的分數則僅為22。Google Trends分數是根據某一特定主題在所有搜索中的相對比例來進行分配的,這反映了該主題的受歡迎程度。 考慮到比特幣近年來的波動歷程,人們對其失去興趣並不意外。比特幣在2021年經歷了一次歷史性的牛市,並在2021年11月11日達到每個比特幣 68,729 美元的最高價,但在2021年下半年和2022年的大部分時間裡,它面臨著熊市的挑戰。 然而,比特幣在2023年開始重新回升,根據CoinMarketCap的數據,其價格從今年年初的16900美元上升至撰文時約 42,267 美元。 Google Trends的數據還顯示,加密貨幣在薩爾瓦多、尼日利亞、荷蘭、巴西和瑞士等國家引起了最多的用戶興趣。 與此同時,人工智能在不同領域的發展取得了顯著進展,包括對人工智能可能取代就業的擔憂、人工智能生成內容的興起,以及對ChatGPT、Google Bard、Meta AI和GrokAI等新聊天機器人的熱情追捧,其中Meta AI和GrokAI是由科技巨頭,世界首富馬斯克推出的。 特定地區對人工智能表現出高度興趣,其中包括越南、中國、菲律賓和緬甸。這種對人工智能的迷戀與該領域的各種技術進步和創新相呼應。

Read More
人工智能無法被列為發明者

英國法院裁定:人工智能無法被列為發明者

彭博報道,英國法院裁定,人工智能無法被列為發明者。這一裁決是在其創造者Stephen Thaler試圖為其創建的一種飲料容器和一種閃光燈申請專利時作出的,與此同時,人工通用智能(AGI)對人類的影響引起了越來越多的關注。 根據最高法院的裁決,人工智能(AI)機器DABUS被視為一個AI機器,而非具備法律意義上的「人」身份,因此無法成為專利發明者。然而,法院明確表示,這一裁決並不意味著其他由越來越先進的AI創作的發明都不具備專利資格。 人工智能無法被列為發明者 將對創新產生重大阻礙 英國政府律師表示,允許Thaler的上訴可能導致未來將任何事物隨意列為發明者的風險。Thaler自己被列為專利持有人,但DABUS被認定為真正的發明者。Thaler的律師則表示,這一裁決將對創新產生重大阻礙。 不僅英國,澳大利亞和歐洲的法院也不允許Thaler將DABUS列為發明者,唯有南非是唯一允許這樣的登記的國家。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 此次英國法院的裁決與美國版權局關於人類創作權的裁決保持一致。美國版權局表示,沒有人類參與的內容無法受到版權法的保護。 這次裁決引發了關於AI進入人工通用智能(AGI)領域的一系列複雜問題。OpenAI的章程中對AGI進行了初步定義,指其具備能夠進行具有經濟價值的智能工作的能力。布魯金斯學會(Brookings Institution)指出,AI在人類常見工作所需的手動靈巧性方面存在限制。這意味著AGI距離完全取代人類還有一段距離。然而,OpenAI的GPT-4模型遭到批評者的質疑,他們認為人們不應將AI的表現視為能力。 然而,隨著Google的Bard工具已經能夠創建傳統上由人類完成的代碼,法院可能很快面臨更多類似Thaler案例的情況。代碼通常被視為軟件開發人員或其雇主的知識產權。

Read More
AI可以預測人類何時死亡

丹麥研究顯示 AI可以預測人類何時死亡 這三類人風險最高

丹麥科技大學(DTU)的科學家進行了一項重大研究,他們開發出了一種名為「life2vec」的AI系統,具有前所未有的能力,該AI可以預測人類何時死亡,從而預測個人壽命和早逝風險。 想利用AI提升業務效率?UD InfiniAI 為你提供多款實用的AI商業軟件。立即瀏覽,選擇適合的AI軟件,革新你的業務。 這項研究使用了超過100萬丹麥人的個人數據進行訓練,並在預測結果方面表現出色,包括個性特徵和死亡時間,具有驚人的準確性。這項研究的成果已經發表在《自然.計算科學》期刊上。 根據600萬名丹麥人勞動市場信息 AI可以預測人類何時死亡 研究人員利用從2008年到2020年間收集的600萬名丹麥人的健康和勞動市場信息數據集,開發了life2vec AI模型。這些數據包括教育、醫療史、收入和職業等詳細信息。為了訓練AI模型,研究人員將這些數據轉換為文本信息,類似於ChatGPT等流行的AI應用的底層技術。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 研究人員特別關注預測死亡時間這一方面。他們通過將其與其他現有的AI模型和保險公司在定價保單方面使用的方法進行比較,評估了其準確性。結果顯示,life2vec AI模型的預測比其他任何模型更準確,這是死亡預測方面的一個重大突破。 相關新聞:NVIDIA黃仁勳:人工智能將在5年內與人類競爭 這項研究旨在將人類生命視為一系列事件,就像一個由詞組成的語言句子一樣。研究的第一作者Sune Lehman解釋說,儘管這通常是AI中的轉換模型的任務,但該研究將這些模型改編成分析人一生中發生的「生命序列」或事件的模型。通過這樣做,模型可以根據過去的條件和經驗對未來事件做出精確預測。 研究人員還探討了更廣泛的問題,比如在特定時間範圍內一個人死亡的可能性。他們的研究結果與現有研究一致,顯示領導角色、高收入和性別等因素顯著預測了存活率。例如,身處領導職位或具有較高收入的個體更有可能享有更長的壽命,而男性、熟練工人或患有精神健康問題則增加了早逝的風險。 然而,研究人員強調,在考慮這一領域的實際應用時,必須仔細解決倫理問題和數據私隱問題。他們警告不要在人壽保險中使用該模型,因為保險的本質是在個體之間分享風險。此外,在部署這種先進的AI系統時,保護敏感數據和解決數據偏見是至關重要的倫理考慮因素。

Read More
聖方濟各大學

CFTime專訪|一原因令聖方濟各大學納AI課程必修科 「香港依方面明顯不及其他地區」

自ChatGPT於世界各地興起後,在學術界引起極大震撼,首當其衝,不得不提電子計算相關科目。聖方濟各大學電子計算及信息科學院院長、國際電機及電子工程學會終身院士陳慶鴻教授接受 CFTime 專訪時提到,隨各地區對 AI 越來越重視,各地學院對相關學術研究競爭越來越大,聖方濟各大學更決定納AI課程必修科,「我哋要為香港爭取到國際地位!」 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 陳慶鴻表示,聖方濟各大學自2020年開辦全面的AI學士學位課程,並於所有其他課程也加了AI 及ICT入門的必修課。但早於五、六年前已有相關的研究,「全球第一個AI學位課程,係由美國卡尼基美隆大學於2018年創辦,而中大同港大喺第二年就有」,他坦言「(當時)好多中學生都唔認識AI」,但近年政府大力宣傳AI,情況始見改善。 想利用AI提升業務效率?UD InfiniAI 為你提供多款實用的AI商業軟件。立即瀏覽,選擇適合的AI軟件,革新你的業務。 院長續指,學院強項之一為圖像方面的AI研究, 例如研究由低解像轉成高解像。他以團體照為例:「就算你用高解像度,如果一百個人拍,每個樣都好細。」而經深度學習後,可以將成千上萬的照片作對比,「好似李小龍的輪廓一定要保留,但他加上去的東西,都係合情合理。」 上回訪問:CFTime專訪|聖方濟各大學:一原因令AI永遠唔可以抹煞人手翻譯力量! 圖像AI取得一定成果,但學院的研究步伐沒有因此鬆懈:「只要一直做研究,我教書先教得好,因為我可以將最新嘅教俾學生。」 而研究當中亦會遇到新的問題,可以即時解答,因為學生將來畢業找工作的時候都會遇到。 聖方濟各大學納AI課程必修科有原因 談到香港學院的AI研究人才,陳慶鴻指香港人才在國際排名一直處於不俗位置,但在中小學教育上就明顯不及其他地區。為了加強學生對AI的認識,聖方濟各大學亦決定納AI課程為必修科,全部學生都要修讀,目的是「令學生無論如何都會有少少AI知識」,課程內容以應用為主。 他續指,課程中不只於ChatGPT「問吓問題」,「要了解AI嘅設計,可以改邊啲,甚至係要求ChatGPT創作,以及利用ChatGPT撰寫及修改程式」培養學生創作能力,「要學生思考有哪些數據對程式是更合適」。 陳慶鴻統計指,即使在疫情期間香港每個月大約有300個相關空缺,惟三間大學相關課程合共只有數十名畢業生,至現時每月宣缺更接近數千,「基本上每一行都需要用到AI,由產品設計、電影剪接、醫療、宣傳、金融等等。」 他建議現時的學生,從小就要開始訓練AI的思維方式,「要知道點樣運作,點樣去諗嘢,同數學差唔多原理,令到使用AI更`有效率及創新。」 梁博士補充,在香港移民潮及適年齡學生下跌下,學院的收生人數不斷上升,「未來見到,科技同人文結合係主流,學院早就宣傳依個理念。」,「只要裝備好自己,就不愁無市場。」

Read More
一首歌是由人類創作

皇后樂團結他手:2023年將是「最後一年知道一首歌是由人類創作的」

皇后樂團傳奇吉他手兼天體物理學家Brian May對人工智能對音樂產業的當前和未來影響進行了反思。Queen樂團的吉他手和科學家 Brian May 表示,今年人工智能在音樂製作中的爆炸性增長只是行業發生劇變的起點,他指出從這點開始「將會變得非常奇怪」。他在接受Rosie Bennet的Fret Not播客訪問時表示:「人工智能將能夠挖掘其他人的才華,並從中創造出一些東西,這讓人有點害怕」。「因為我認為2023年將是你最後一年知道一首歌是由人類創作的」。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 匿名的TikTok用戶Ghostwriter創作的AI生成的歌曲《Heart on My Sleeve》是典型的例子。這首病毒式的歌曲使用生成式人工智能重新創作了Drake和The Weeknd的音樂風格。這首歌曲如此令人信服,以至於人們紛紛猜測它是否有資格參加格林美獎。在播客對談中,這位傳奇吉他手和天體物理學家詳細闡述了對人工智能及其對音樂產業的潛在影響的看法,並涉及最近荷里活編劇和演員的罷工事件。 想利用AI提升業務效率?UD InfiniAI 為你提供多款實用的AI商業軟件。立即瀏覽,選擇適合的AI軟件,革新你的業務。 使用已發表作品來訓練人工智能模型的爭議性做法導致許多作家稱AI為「剽竊機器」。這種做法導致了人工智能社區的分裂,其中包括Stability AI副總裁公開退出了Stable Diffusion的開發者團隊。 稱今年是最後一年知道「一首歌是由人類創作 」— 「創作過程不會在沒有外部靈感的情況下進行」 Brian May 承認作家和藝術家對人工智能可能被用來製造類似作品的擔憂,但他也表示創作過程不會在沒有外部靈感的情況下進行。 他表示:「在某種程度上,我們都是剽竊者;我們中間沒有人是在真空中創作的」。「現在每次我創作東西時,我都在想:這是從哪裡來的?是我聽到的某些東西嗎?是我突然感受到的某些東西嗎?它來自哪裡?’ 那些線在哪裡?」 展望未來,Brian May 看到一個時代,人工智能從創作音樂演變為創作和演奏自己的音樂。「當然,你可以讓人類來表演由人工智能創作的音樂,但最終,人工智能也將進行演奏,甚至可能還會聽它並流淚」,梅說。「然後你忘記了人類;人類已經不重要了。」 即使錄音業界繼續努力應對人工智能,包括電子音樂二人組Disclosure和傳奇樂團The Beatles都在利用新興技術創作新音樂,為已故歌手帶來一首新歌。 今年六月,美國唱片學院(Recording Academy)更新了2024年格林美獎的規則,將使用人工智能工具創作的音樂納入考慮範圍。然而,唱片學院強調,人工智能只能在創作過程中扮演一個角色,像《Heart on My Sleeve》這樣主要或完全由人工智能創作的歌曲將無法獲得提名資格。 今年早些時候,傳奇搖滾歌手 Nick Cave 在被問及對藝術家使用ChatGPT寫歌詞的看法時毫不掩飾。在一篇博客文章中,他表示,因為ChatGPT的便利性,使用它的藝術家正在參與侵蝕世界的靈魂和人性的行為。Nick Cave 當時寫道:「ChatGPT拒絕了創作的艱辛,以及我們的努力賦予生活深度和意義的觀念。它拒絕了一種集體的、基本的、無意識的人類精神,透過我們共同的努力將我們聯繫在一起。」

Read More