講座報(bào)告主題:大語(yǔ)言模型(LLM)在專業(yè)領(lǐng)域知識(shí)發(fā)現(xiàn)中的應(yīng)用研究——以醫(yī)學(xué)文本實(shí)體關(guān)系抽取為例
專家姓名:段宇鋒
日期:2025-05-08 時(shí)間:10:00
地點(diǎn):圖書館一樓報(bào)告廳
主辦單位:圖書館
主講簡(jiǎn)介:段宇鋒,華東師范大學(xué)經(jīng)濟(jì)與管理學(xué)院教授、博士生導(dǎo)師。現(xiàn)兼任全國(guó)圖書情報(bào)專業(yè)學(xué)位研究生教育指導(dǎo)委員會(huì)委員、中國(guó)科學(xué)技術(shù)情報(bào)學(xué)會(huì)理事、中國(guó)社會(huì)科學(xué)情報(bào)學(xué)會(huì)理事等職。主要從事信息組織、圖書館創(chuàng)新等方面的研究。主持國(guó)家社會(huì)科學(xué)基金項(xiàng)目3項(xiàng),國(guó)家社會(huì)科學(xué)基金重大項(xiàng)目子課題2項(xiàng),出版著作4部,發(fā)表學(xué)術(shù)論文100余篇。研究專長(zhǎng):信息組織。
主講內(nèi)容簡(jiǎn)介:近年,LLM迅猛發(fā)展,依靠強(qiáng)大的文本理解和生成能力,在文本分類、智能問答、信息抽取等任務(wù)中取得了重要突破。面向?qū)I(yè)領(lǐng)域的實(shí)體關(guān)系抽取任務(wù),LLM的性能如何?與面向特定任務(wù)構(gòu)建的深度學(xué)習(xí)模型相比,是否具有優(yōu)勢(shì)?我們以醫(yī)學(xué)文本的實(shí)體關(guān)系抽取為例,討論上述問題。
歡迎師生參加!