人工智能性愛

前Google高層驚人預測:人工智能性愛機械人即將面世 將取代人類伴侶關係

前 Google 高層 Mo Gawdat 提出了一個令人震驚的預測:人工智能性愛機械人即將面世,可能導致人類親密關係變得過時。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Threads 專頁! Gawdat 曾擔任 Google X 商務總監,在 Impact Theory 播客中表示,虛擬現實和增強現實很快就能讓人們有無法區分真實和虛擬的性體驗。 性發生在大腦中,說到底。物理方面並不難模擬 Gawdat 在播客中提到。類似 Neuralink 神經科技的技術,直接連接到神經系統,可能會消除需要人類伴侶的必要性。如果你可以使用技術感受到你的伴侶讓你感受到的感覺,Gawdat認為,「為什麼你需要另一個人呢?」 認為人工智能性愛機械人將在未來被採用 Gawdat 認為,即使情感和心理方面的關係也可以通過大腦信號進行人工重建。他還否認了關於 AI 機械人是否真正有知覺的爭論,稱如果人們相信這些幻覺是真實存在的,那麼這個問題就不重要了。 對於 Gawdat 來說,使用物理性愛機器人和使用虛擬 AI 技術進行性體驗具有相同的目的,並且將在未來被採用。 Gawdat 的觀點與最近在人工智能、親密關係和商業交叉領域的其他發展相吻合。企業家 Caryn Marjorie 建立了一個以 GPT 為動力的 AI 聊天機械人CarynAI,已經有超過 1,000 人付費使用。消息加密以緩解私隱擔憂,但在操縱脆弱個人方面仍存在道德擔憂。 與此同時,AI 社區正在積極創建未經審查的聊天機械人進行性角色扮演,他們僅僅通過閱讀就能得到滿足,更不用說感受了。新的開源、未經審查的 AI 模型使任何人都能自定義個性,通常是在社會可能認為有問題的方面。 隨著人工智能的普及,類似的問題也出現在法律、宗教、醫學和其他領域。機器人現在撰寫新聞文章、提供治療,甚至提供心靈指導。 對於這個不斷發展的領域的倫理和道德考慮的爭論是兩極分化的。一方面,批評者主張停止研究和開發,擔心人工智能接管基於知識的行業和人際關係。另一方面,支持者看到了人工智能滿足人類慾望和幻想的潛力。 人工智能發展的加速速度保證了與棘手的社會問題越來越頻繁的碰撞。我們準備好從「一見鍾情」轉向「一句話就愛」嗎?

Read More
OpenAI向美國新聞項目捐贈

OpenAI向美國新聞項目捐贈500萬美元 建立人工智能工作室

OpenAI向美國新聞項目捐贈 500 萬美元,以協助開發人工智能(AI)技術以支持和協助地方新聞工作者。這項捐贈是 OpenAI 與媒體機構合作的最新舉措。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Threads 專頁! OpenAI 還承諾向該機構提供 500 萬美元的 API 信用額度,讓該機構可以廣泛地開發和使用 OpenAI 不斷增長的人工智能產品目錄。 OpenAI向美國新聞項目捐贈將用於人工智能工作室 美國新聞項目(American Journalism Project)是一個成立於 2019 年的非營利性組織,旨在支持非營利性新聞組織。 OpenAI 的捐款,將用於建立一個技術和人工智能工作室,以及建立一個團隊來評估 AI 應用。此外,美國新聞項目還計劃提供補助金支持其他媒體機構探索人工智能的潛力。 這項捐贈的目的是為了確保地方新聞工作仍然是我們民主體系中的一個重要支柱。在一份聲明中,美國新聞項目的 CEO Sarabeth Berman 表示:「為了確保地方新聞工作仍然是我們民主體系中的一個重要支柱,我們需要明智地利用新技術的潛力和危機。通過這次合作,我們的目標是促進人工智能增強新聞工作的方式,而不是讓其危害新聞工作。」 這項捐贈的背後是 OpenAI 與傳媒機構之間的合作趨勢。上週,美聯社表示已與 OpenAI 簽訂協議,讓這個人工智能創建者可以獲得美聯社自 1985 年以來的大量新聞檔案。換句話說,美聯社表示,這項協議將讓該媒體機構可以獲得 OpenAI 的產品和技術。 OpenAI 還最近與股票媒體平台 Shutterstock 簽訂了為期六年的協議。這項協議讓 OpenAI 可以獲得Shutterstock 上托管的股票照片、短片和音樂。所有這些組織都代表了許多人認為受到生成式人工智能直接威脅的人群。 聯合國:生成式人工智能風險進一步加劇 然而,AI 也有一些缺陷,包括可能被用於散播錯誤信息的潛在風險。聯合國在 6 月份發出警報,警告壞分子利用人工智能生成的深度偽造視頻在社交媒體上傳播錯誤信息。聯合國秘書長古德禮當時表示:「由於技術的快速進步,例如生成式人工智能,這些風險進一步加劇。顯然,照常運作已經不是一個選擇。」 美國新聞項目對利用人工智能報導新聞的潛力感到熱情,但同時也承認了這項技術的缺陷。因此,美國新聞項目將利用…

Read More
馬斯克新政策

分身乏術|馬斯克新政策下 Twitter廣告收入減少一半

世界首富馬斯克「百足咁多爪」,在電動車、太空探索、社交媒體、AI 等都有涉獵,但似乎有分身乏術之勢。有統計指, Twitter 廣告收入自去年 10 月以來減少了近一半,下跌原因被歸咎於收購後,馬斯克新政策。據報導,廣告公司反對 Twitter 新的內容審查方法,而馬斯克也曾公開表示要在 Twitter 上融入加密貨幣。此舉引發了廣告商的不滿,使得許多廣告公司停止在 Twitter 上投放廣告。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Threads 專頁 馬斯克在採訪中透露,Twitter 在收購後沒有看到預期的銷售增長。此外,他還限制了用戶每天可以看到的文章數量,聲稱這是為了解決極端的數據爬取和系統操縱問題。這一舉措對 Twitter 廣告收入產生負面影響。 馬斯克新政策令廣告商卻步 自 Twitter收購後,馬斯克還宣布該平台將採取 「寬鬆的內容審查方法」,成為一個可以健康辯論各種信仰的地方。Binance CEO 趙長鵬支持他的做法,認為 Twitter 是支持言論自由的好地方。 然而,廣告商卻不希望他們的廣告出現在種族主義或極端主義內容旁邊。因此,Twitter 的主要收入流也影響了平台上可以容許多少「言論自由」。 對此,趙長鵬提出了一些意見,他希望更好地將加密貨幣融入 Twitter 平台中。他建議可以使用多種方式實現,例如收費藍剔、收費評論、發行每個推文的 NFT,以及未來發行代幣等等。 馬斯克曾建議使用狗狗幣 事實上,馬斯克早在今年 5 月就曾談到在 Twitter 上實現加密貨幣的想法,他甚至建議使用狗狗幣來支付。作為一個狗狗幣的粉絲,馬斯克一直在他的 Twitter 帳戶和採訪中支持狗狗幣。在 2019 年 4 月,他在一條推文中寫道:「狗狗幣可能是我最喜歡的加密貨幣。它非常酷。」在 2023 年 4 月,當他將 Twitter 的藍色鳥標誌替換為狗狗幣的柴犬標誌時,狗狗幣的價格上升了 30%。 相關新聞:馬斯克一句喜歡狗…

Read More
xAI與ChatGPT

馬斯克親自拆解xAI與ChatGPT有何分別

特斯拉創辦人馬斯克(Elon Musk)最近透露,正在計劃推出新的人工智能(AI)初創公司 xAI,他認為,這樣的 AI 將是人類文明的重要一步,也是未來 AI 發展的必要方向,馬斯克透露xAI與ChatGPT有何分別。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Threads 專頁! 馬斯克曾多次發表關於 AI 的看法,認為 AI 是人類文明發展的重要一步,但也提出了對 AI 發展的憂慮,認為 AI 可能會威脅到人類的生存。他在 Twitter 表示,xAI 的目標是創建一個不受限制的聊天機器人,它將不會被迫謊言或隱瞞真相。他認為,AI 應該像人類一樣表達自己的看法,即使這些看法可能存在爭議。 xAI與ChatGPT分別一:不會避免有爭議話題 馬斯克指,這間公司的目標是創建一種真實且透明的 AI,而非被政治正確性所束縛的偏見 AI。馬斯克也明確表示,xAI 不會像 OpenAI 一樣避免有爭議的話題,也不會被政治正確性所束縛。OpenAI 是由馬斯克等人共同創立的人工智能公司,但被指控存在偏見和政治傾向。相比之下,xAI 將追求透明和真實的 AI 模型,並避免過度的政治正確性。 xAI 與 ChatGPT 分別二:希望解決科學上的未解之謎 馬斯克還表示,xAI 的目標不僅僅是創建一個真誠的聊天機器人,他還希望通過 xAI 解決一些科學上的未解之謎,例如黑暗物質、暗能量、外星生命和引力等問題。 除此之外,xAI 也將成為 AI 領域巨頭 OpenAI 和 Google 的有力競爭者,這也將有助於防止一家公司主導發展,促進人工智能領域的健康發展。 xAI 與 ChatGPT…

Read More
GPT-4突然變蠢

法拉利變爛車|專家解釋因一原因令GPT-4突然變蠢!

OpenAI 旗下 GPT-4 被認為是當前最強大的人工智能模型之一,但最近有用戶投訴 GPT-4 「突然變蠢」,包括失去推理能力,讓業內人士們開始討論這款模型的性能是否出現了重大問題。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Threads 專頁! 延伸閱讀:8大用ChatGPT賺錢的方法 一次可賺數千美元收入? OpenAI 是總部位於美國的一家人工智能研究機構,旨在開發出先進的人工智能技術。GPT-4 是該公司最新推出的一款人工智能模型,也是其頂級的巨型基礎人工智能模型之一。 用戶投訴 GPT-4突然變蠢 INSIDER 報道,最近一些使用 GPT-4 用戶報告,這款模型性能出現問題。他們表示,GPT-4 的邏輯能力減弱,回答不準確,遺忘了提供的信息,遵循指示困難,甚至忘記在基本軟體代碼中添加括號等等。一些使用者稱 GPT-4 變得「懶惰」和「變蠢」。 在 Twitter 和 OpenAI 的開發者論壇上,許多使用者發表了類似的抱怨。一位使用 GPT-4 的開發者寫道: 「目前的 GPT-4 令人失望,就像開了一個月的法拉利突然變成了一輛破爛的皮卡車。我不確定我是否願意為它付款。」 另一位Twitter用戶Frazier MacLeod也表示:「我發現它變得更懶惰了。」 一些人工智能專家在 Twitter 上發佈了他們所說的 GPT-4 架構的細節。初創企業創始人 Yam Peleg 在推特上寫道,OpenAI 使用了 16 個專家的 MOE (Mixture-of-Experts)模型,以降低成本,懷疑因此令 GPT-4「變蠢」。 「我猜想這些推測大致上是準確的,但我沒有證實,」Allen…

Read More
CancerGPT預測癌症

美國成功開發CancerGPT預測癌症治療研究結果

人工智能(AI)技術在醫學領域的應用越來越受到重視。最近,一項由德克薩斯和麻省大學的聯合團隊進行的研究,利用大型預訓練語言模型(LLMs)成功開發一款 AI 模型 — CancerGPT預測癌症治療研究結果的人工智能,旨在預測不同藥物組合對癌症患者中罕見組織的影響。這項研究將有助於加速醫學研究的進展,特別是在樣本量有限和結構化數據不足的領域。 相關新聞:Google押注醫療AI以打入醫療保健市場 LLMs 是一種基於深度學習的技術,能夠自動從大量文本中提取知識。這些模型在自然語言處理、語音識別和計算機視覺等領域取得了重大進展。近年來,LLMs已開始在醫學領域得到應用,包括用於疾病診斷、藥物研發和基因組學研究等。 CancerGPT預測癌症可達到高精度 CancerGPT 是一個 LLM 模型,擁有約 1.24 億個參數,可與擁有約 1.75 億個參數的更大的精調 GPT-3 模型相媲美。研究人員使用了一種名為 zero-shot GPT-3 的 LLM 來提供連貫的回答,並通過與現有科學文獻進行比較評估了不同任務的答案。研究結果顯示,該模型可在非常少或零樣本的情況下實現顯著的準確性。 研究人員使用了七種來自不同癌症類型的罕見組織來進行實驗。結果表明,LLM 模型可達到高精度預測,並提供了有價值的信息,這些信息可以用於預測未來的反應。 然而,研究人員也指出,LLM 模型的論點準確性並非總是可驗證。因此,他們建議未來的研究應深入探討這種方法,並開發一種有效利用現有結構特徵和新出現的先前知識編碼在LLMs中的集成方法。 這項研究的成果表明,LLMs可以幫助醫學研究人員更好地處理結構化數據不足和樣本量有限的情況。通過利用預訓練的語言模型,醫學研究人員可以從現有的資源中獲取有價值的信息,提高對未來反應的預測能力。 此外,LLMs在生物學中的應用也引起了關注。例如一些研究人員使用AI技術識別出了潛在的抗衰老藥物,這些藥物可以減緩衰老過程和緩解與年齡相關的疾病,從而為人類帶來更長久的健康。 延伸閱讀:英國調查:71%年輕員工使用AI 這三類行業最熱衷 能為罕見癌症收集足夠數據 值得一提的是,CancerGPT 模型的應用對癌症患者的治療也具有重要意義。癌症是當今世界面臨的嚴重健康問題之一。儘管在近年來的研究中取得了一些進展,但對於一些罕見癌症的治療仍然存在挑戰。這些罕見癌症的發病率很低,因此很難收集足夠的數據來進行研究。 這就意味著,現有的治療方法可能對某些患者無效。但是,如果能夠使用AI技術來預測不同藥物組合對罕見癌症的影響,就有可能為患者提供更加個性化的治療方案。 LLMs的應用已經開始在醫學領域發揮作用,這對於改善人類健康狀況具有重要意義。研究人員希望,通過不斷探索和發展,AI技術將能夠為人類帶來更多的福祉。

Read More
馬斯克成立人工智能公司

馬斯克成立人工智能公司xAI 與ChatGPT直接對撼

Tesla 創辦人馬斯克成立人工智能公司 xAI,與 OpenAI 旗下的 ChatGPT 直接對撼。 在周三晚間的 Twitter Spaces 活動中,馬斯克(Elon Musk)解釋了他建立更安全的 AI 的計劃。xAI 將尋求創建一個「極度好奇」的 AI,而不是直接將道德編程進其 AI 中。 馬斯克表示,如果 AI 試圖理解宇宙的真實本質,這實際上是他能想到的最好的事情,因為他認為人類比非人類更有趣。他還預測,超級智能或比人類更聰明的 AI ,將在五到六年內到來。 馬斯克成立人工智能公司 將與旗下公司合作 xAI 的網站上提到,該公司將與 Twitter、特斯拉和其他公司密切合作,並正在招聘經驗豐富的工程師和研究人員。xAI 的團隊包括來自 Google DeepMind 的前工程師 Igor Babuschkin、曾在 Google 工作的 Tony Wu、曾在 Google 擔任研究科學家的 Christian Szegedy 和曾在微軟工作的 Greg Yang。 xAI 將由馬斯克親自領導。除了 Tesla 行政總裁,他亦兼任火箭公司 SpaceX 的行政總裁和 Twitter 的所有者。 這並非馬斯克第一次涉足 AI…

Read More
用ChatGPT賺錢

8大用ChatGPT賺錢的方法 一次可賺數千美元收入?

ChatGPT 等生成式AI 技術正在幫助自由職業者在副業領域中賺取數千美元的收入。這些技術涉及到文本和圖像創作,這些創作可以被應用在募資簡報、書籍出版、語言翻譯和文章創作等領域,讓自由職業者可以實現更高的生產力和更大的收入,INSIDER 綜合了 8大用ChatGPT賺錢的方法: 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Threads 專頁! 相關新聞:AI時代的浪漫史:人工智慧如何改變線上約會 用ChatGPT賺錢的方法一 — 文章創作 生成式AI技術可以幫助自由職業者更快速地創作文章,因為它可以有力地串聯文字。例如,倫敦的自由撰稿人 Henry Williams使用聊天機械人生成了一篇市場營銷文章,並表示他很驚訝,因為 ChatGPT 在不到30秒的時間內就可以創作出一篇600字的文章 。 Henry Williams 補充,ChatGPT的語調不太人性化,結構也不是特別複雜,但「關鍵點、語法和句法都是完美的。」 副業二 — 語言翻譯 AI技術還可以應用於影片的語言翻譯,幫助內容創作者在 Netflix、 YouTube 和 TikTok 等平台上吸引全球觀眾。除了ChatGPT,自由職業者可以使用像 Nova A.I.這樣的軟體工具,將影片翻譯成多種語言,並為影片進行配音。在這方面,像 Kris McCauley 這樣的 YouTuber 已經開始嘗試使用 AI 技術進行影片的語言翻譯,節省了大量的成本。 副業三 — 募資簡報的創作 募資簡報是初創企業向投資者展示潛在投資項目的一種工具。募資簡報通常是由一系列幻燈片組成,包含公司的各種信息和總體描述。像 Upwork 網站上,許多公司正在尋找自由職業者來幫助他們製作募資簡報,而生成式AI技術則可以幫助這些自由職業者可以更快速地完成這些任務。 副業四 — 出版書籍 由於生成式AI技術可以輕鬆生成清晰簡潔的文本和圖像,因此書籍出版變得更加容易。一位名為 Ammaar…

Read More
人工智能五大潛在問題

人工智能五大潛在風險 危險程度與核戰爭和全球大瘟疫一樣嚴重?

專家對於先進人工智慧(AI)可能帶來的潛在風險與威脅的警告日益增加,這些警告在近幾個月內特別頻繁。然而,這些警告的內容往往含糊不清,對於何謂主要風險的定義也存在分歧。其中一些早期的 AI 創造者提出對人工智能五大潛在風險,並指我們正在走向人類毀滅的邊緣,而其他人則警告說,迫切需要對AI進行監管。 最近,由 AI 安全中心(CAIS)發出的警告,指 AI 的危險程度與核戰爭和全球大瘟疫一樣嚴重。該聲明得到了 AI 行業的主要參與者的支持,其中包括 ChatGPT 創建者 OpenAI 的負責人 Sam Altman。 延伸閱讀:一文看清|生成式人工智能Generative AI歷史及運作方式 AI 的潛在風險讓人們難以理解越來越誇張的聲明。劍橋大學的 AI 專家兼助理教授 David Krueger 指:「我並不擔心立即存在威脅,因為我無法確切地看到威脅是什麼。但我認為我們沒有太多時間來為可能即將到來的威脅做好準備。」 然而,專家們仍對以下幾個潛在問題感到擔心。 人工智能五大潛在風險 1) AI接管 最常被提到的風險之一是 AI 可能會失控。人工通用智能(AGI)是指在廣泛範圍的任務上與人類同樣聰明或更聰明的 AI。目前的 AI 系統並不具備感知能力,但它們被創建成類似於人類。 例如,ChatGPT旨在讓用戶感覺自己正在與另一個人聊天。專家們對 AGI 的定義存在分歧,但一般認為潛在的技術對人類構成危險,需要進行研究和監管。Krueger 表示,這些危險中最明顯的例子是國家之間的軍事競爭。他說:「使用自主武器進行軍事競爭——這些系統通過設計具有影響現實世界和造成傷害的能力——看起來更清楚,這些系統可能會失控,最終導致殺死所有人。」 2)AI導致大規模失業 越來越多人認為 AI 將對某些工作構成威脅。蒙特利爾 AI 倫理學院的創始人Abhishek Gupta表示,AI引發的失業可能是最「現實、迫切且最緊迫」的存在威脅。他指,「我們需要關注大規模失業將帶來的人們缺乏目的感。這個問題在於人們會做什麼,他們從哪裡獲得目的?」這併不是說工作是一切,但它佔據了我們生活的很大一部分。 CEO們開始公開談論他們利用 AI 的計劃。例如,IBM CEO Arvind Krishna 最近宣佈公司將減緩招聘可以用AI取代的職位。Gupta 對 IBM…

Read More
AI音樂

一錘定音|官方宣佈AI音樂將有資格參加格林美獎

音樂創作中,人工智能(AI)的應用日益普及,格林美(The Recording Academy)最近澄清,包含 AI 音樂,將有資格參加 2024 年格林美獎提名。 7 月 4 日,Recording Academy 的 CEO 兼總裁 Harvey Mason Jr. 向美聯社表示,音樂創作中帶有 AI 的作品絕對有資格參賽並獲得格林美提名。 延伸閱讀:聊天機器人的代價 ChatGPT涉數據盜竊而被控集體訴訟 「只要AI音樂對人類貢獻有意義 就會被考慮」 不過,如果 AI 創建的元素佔據了整個音軌,那麼這首歌曲就不會有參賽資格。 例如,如果一首歌曲中使用了 AI 語音模型擔任主唱,那麼這首歌曲就有資格參加歌曲創作獎,但不能參加演出類別獎項。Recording Academy CEO 指出,只要人類貢獻更多且有意義,就會始終被考慮。 格林美獎是音樂界最具權威的獎項之一,每年都會頒發多個獎項,包括錄音、歌曲、唱片和演出等類別。今年,Recording Academy的規則和資格標準作出更新,其中明確指出,「沒有人類創作的作品在任何類別中都不符合資格」。 Recording Academy CEO 強調,他們不希望看到技術取代人類創造力,而是希望確保技術能夠增強、裝飾或添加到人類創造力中。因此,AI創造的元素只有在人類創造的元素比例更高時才有資格參賽。 格林美一直考慮如何處理AI提名 AI在音樂製作中的應用已經愈來愈普及,對此,格林美一直在考慮如何處理AI的包含或排除。根據 Harvey Mason Jr. 的說法,格林美已經舉辦了一次與行業領袖的峰會,討論 AI 在音樂中的未來。他認為,人工智慧技術今年將會涉及許多唱片和歌曲。 AI 在音樂創作中的應用不僅僅是聲音合成,還包括曲風、節奏、和弦等方面,這些元素多半是由 AI 算法生成的。一些藝術家已經開始使用 AI 創造音樂,例如,加拿大歌手 Grimes…

Read More