Avatar
FWEnoir
0d119c15a5495d0c14a415f55823acb5547b3b0064190a9a3db92ed66d7b1b39
隨手筆記 / AI / LLM / Golang / Flutter / Software Engineering / 台灣 / Taiwan

更多GPT-4的資訊 nostr:note10vqtcaf2wr3wnpyknvh85jsp79eknqdhdl5fvhnd9k9a7mys545q4as857

下班 #catstr

東映日前對外宣布,宮崎駿的最後一部電影《你想活出怎樣的人生》確認會提供 IMAX、杜比影院、杜比全景聲和 DTS:X 版本。這將是吉卜力工作室首度以 IMAX 形式呈現自己的作品,而這無疑會給觀眾多一個走入影院的理由。

可是07/21有奧本海默耶,會不會一下就從IMAX下檔啊。

北科熱炒白飯事件懶人包

近日,台北市知名熱炒店「大道創意料理快炒」發生了一起北科大學生吃光白飯並刷負評的事件[1]。事件起因是該店在用餐時段湧入30多名學生,結果把店內兩桶白飯吃光還抱怨吃不夠,店家要求點炒麵時卻被拒絕,一行人甚至到店家洗1星負評,讓老闆感到非常無奈[1]。

事後,該群大學生被起底發現是北科大的學生,北科資財營籌備團隊總召便出面回覆,表示學生實際上吃到的飯量根本不足兩鍋,對於至店家的google評論留下1顆星的評價,聲明表示「我們並無誇大其詞,所留下的言論也都是真實遭遇,用餐者有留言評論的權利,我們覺得這並無不妥!」沒想到卻被網友砲轟到刪文[1]。

7月9日晚間,北科大資財營籌備團隊前往熱炒店向老闆致歉,並且發出與老闆合影表示「抱歉造成了大家的困擾,我們已經親自前往大道創意料理熱炒致歉,也和老闆解開了誤會!在店家的評論下刷負評確實是我們的錯,沒有和店家先說好也是我們的問題,感謝大家對此事的關心,我們會記取這次深刻的教訓。」[1]

網友們對於這起事件的看法不一,有人認為學生錯在「集體刷1星」[2],也有人認為學生應該修禮貌通識課,提高道德人品[3]。總之,這起事件引發了廣泛的討論,也讓人們反思在網路評論中應該如何表達自己的意見。

Citations:

[1] https://tw.news.yahoo.com/%E5%8C%97%E7%A7%91%E5%A4%A7%E5%AD%B8%E7%94%9F%E5%90%83%E5%85%89%E7%99%BD%E9%A3%AF%E5%88%B7%E8%B2%A0%E8%A9%95-%E5%A4%9C%E8%A1%9D%E7%86%B1%E7%82%92%E5%BA%97%E9%81%93%E6%AD%89-232534673.html

[2] https://www.setn.com/News.aspx?NewsID=1320662

[3] https://tw.sports.yahoo.com/news/%E5%8C%97%E7%A7%91%E5%A4%A7%E7%94%9F%E5%90%83%E5%85%89%E7%99%BD%E9%A3%AF%E7%8B%82%E6%B4%971%E6%98%9F-%E7%99%BC%E8%81%B2%E6%98%8E%E9%81%AD%E8%BD%9F%E7%A7%92%E5%88%AA%E6%96%87-043600813.html

《Lost in the Middle: How Language Models Use Long Contexts》這篇論文的主要研究內容是探討語言模型在長文本中有效利用輸入內容的表現。該文件重點研究了多文檔問答和鍵值檢索這兩個任務,這些任務要求語言模型識別並使用其輸入內容中的相關信息。研究結果顯示,當相關信息位於輸入內容的開頭或結尾時,語言模型的表現最佳。然而,當它們需要訪問長文本中的中間位置時,它們的性能顯著下降。研究還發現,隨著輸入內容的增加,即使對於明確設計用於長文本處理的模型,其性能也會下降。該文件深入探討了語言模型如何使用其輸入內容,並提出了未來模型的新評估協議。分析包括對開放和封閉語言模型的實驗,並研究了模型架構、查詢感知內容化和指令微調對模型使用上下文的影響。此外,對於開放域問答中的檢索器-閱讀器模型進行的案例研究揭示了將更多信息添加到輸入內容和模型有效推理之間的平衡。總的來說,這項研究揭示了語言模型在有效利用長篇輸入內容以應對各種任務時的限制和挑戰。

"Lost in the Middle: How Language Models Use Long Contexts" investigates the performance of language models in utilizing long input contexts. The study focuses on multi-document question answering and key-value retrieval tasks that require language models to identify and use relevant information within their input contexts. The analysis reveals that language models tend to perform better when the relevant information is located at the beginning or end of the input context but struggle when accessing relevant information in the middle of long contexts. The research also finds that as the input context becomes longer, model performance decreases, even for models designed for long-context processing. The document provides insights into how language models use their input contexts and suggests new evaluation protocols for future models. It includes experiments with open and closed language models and investigates the impact of model architecture, query-aware contextualization, and instruction fine-tuning. A case study on open-domain question answering with retriever-reader models highlights the trade-off between adding more information to the input context and the model's ability to reason effectively over it. Overall, the research sheds light on the limitations and challenges of language models in effectively utilizing long input contexts for various tasks。

#chatgpt #AI #LLM

https://arxiv.org/abs/2307.03172

A tweet has compiled some usage tips for the ChatGPT Code Interpreter.

#chatgpt

https://twitter.com/chaseleantj/status/1677679654680035328

小孩學會玩躲貓貓後真好,直接開始手機滑起來。

#photostr 傍晚的天氣還是挺適合運動

Running Lume, fighting for better future, join us here: https://lume.nu

🎮🔥【暗黑4】第一賽季揭曉!! 惡疾之心寶石夠快3個月嗎?Check out this exciting video about the first season of #Diablo4! 🎮🔥 Will the Heart of Evil gem be fast enough in 3 months? 🤔 Published on July 7, 2023, it's already got 19K+ views! #gaming #暗黑破壞神4

https://www.youtube.com/watch?v=GjSymDskmyE