亚洲精品揄拍自拍首页,久久国产综合91,久久人人做人人妻人人玩精品vr,久久综合久久无码

  • <rp id="b40sa"><menu id="b40sa"></menu></rp>
  • <table id="b40sa"><p id="b40sa"></p></table>

    <table id="b40sa"></table>

  • <progress id="b40sa"></progress>
      <var id="b40sa"><track id="b40sa"><ins id="b40sa"></ins></track></var>
      中國西藏網(wǎng) > 即時(shí)新聞 > 國內(nèi)

      《自然》發(fā)布2024年值得關(guān)注的七大技術(shù)

      發(fā)布時(shí)間:2024-01-25 14:10:00來源: 科技日?qǐng)?bào)

        《自然》發(fā)布2024年值得關(guān)注的七大技術(shù)

        中國科學(xué)家研究成果位列其中

        【今日視點(diǎn)】

        ◎本報(bào)記者 劉 霞

        從蛋白質(zhì)設(shè)計(jì)到3D打印,從大片段DNA插入到檢測(cè)深度偽造內(nèi)容……《自然》網(wǎng)站22日發(fā)布了2024年值得關(guān)注的七大技術(shù)領(lǐng)域,并指出人工智能(AI)的進(jìn)步是這些最令人興奮的技術(shù)創(chuàng)新應(yīng)用的核心。

        深度學(xué)習(xí)助力蛋白質(zhì)設(shè)計(jì)

        從頭設(shè)計(jì)蛋白質(zhì)已經(jīng)成熟為一種實(shí)用的工具,用于生成定制的酶和其他蛋白質(zhì)。在這背后,深度學(xué)習(xí)功不可沒。

        其中,“基于序列”的算法使用大型語言模型,能夠像處理包含多肽“單詞”的文檔一樣,通過處理蛋白質(zhì)序列辨別出真實(shí)蛋白質(zhì)結(jié)構(gòu)背后的模式。例如西班牙巴塞羅那分子生物學(xué)研究所開發(fā)的ZymCTRL,能利用序列和功能數(shù)據(jù)設(shè)計(jì)出天然酶。

        基于結(jié)構(gòu)的算法也不遑多讓。美國華盛頓大學(xué)研究團(tuán)隊(duì)使用RFdiffusion設(shè)計(jì)的新蛋白質(zhì)可與目標(biāo)表面“完美吻合”,而更新版本的RFdiffusion能使設(shè)計(jì)者計(jì)算蛋白質(zhì)的形狀,為編碼酶、轉(zhuǎn)錄調(diào)節(jié)劑、制造功能性生物材料等開辟了新途徑。

        圍追堵截“深度偽造”內(nèi)容

        生成式AI可在幾秒鐘內(nèi)憑空創(chuàng)造出有說服力的文本和圖像,包括所謂的“深度偽造”內(nèi)容。

        一種解決方案是生成式AI開發(fā)人員在模型輸出中嵌入水印,其他策略側(cè)重于對(duì)內(nèi)容本身進(jìn)行鑒定,通過算法識(shí)別替換特征邊界處的偽影等。

        在工具的可獲得性方面,美國國防部高級(jí)研究計(jì)劃局的語義取證(SemaFor)計(jì)劃開發(fā)了一個(gè)有用的“深度偽造”分析工具箱。美國水牛城大學(xué)研究團(tuán)隊(duì)也開發(fā)了算法庫DeepFake-O-Meter,其能從不同角度分析視頻內(nèi)容,找出“深度偽造”內(nèi)容。

        大片段DNA嵌入再接再厲

        美國斯坦福大學(xué)正在探索單鏈退火蛋白(SSAP),其能將擁有2000個(gè)堿基的DNA精準(zhǔn)嵌入人類基因組。其他方法利用基于CRISPR的先導(dǎo)編輯技術(shù),將大片段DNA精確地嵌入基因組中。2022年,麻省理工學(xué)院研究人員首次描述了通過位點(diǎn)特異性靶向元件(PASTE)進(jìn)行可編程添加,精確嵌入多達(dá)36000個(gè)堿基的DNA。

        中國科學(xué)院遺傳發(fā)育所研究員高彩霞領(lǐng)導(dǎo)的團(tuán)隊(duì)開發(fā)了PrimeRoot。這種使用先導(dǎo)編輯的方法能在水稻和小麥中嵌入多達(dá)2萬個(gè)堿基的DNA。這項(xiàng)技術(shù)可賦予作物抗病性和病原體抗性,延續(xù)基于CRISPR的植物基因組工程的創(chuàng)新浪潮。

        腦機(jī)接口快速發(fā)展

        美國斯坦福大學(xué)科學(xué)家開發(fā)出一種復(fù)雜的腦機(jī)接口設(shè)備。他們?cè)诩∥s性側(cè)索硬化癥患者的大腦中植入電極,然后訓(xùn)練深度學(xué)習(xí)算法。經(jīng)過幾周訓(xùn)練,患者每分鐘能說出62個(gè)單詞。

        過去幾年開展的多項(xiàng)此類研究,證明了腦機(jī)接口技術(shù)可幫助患有嚴(yán)重神經(jīng)損傷的人恢復(fù)失去的技能,并實(shí)現(xiàn)更大的獨(dú)立性,包括深度學(xué)習(xí)在內(nèi)的AI技術(shù)在其中發(fā)揮了重要作用。

        加州大學(xué)舊金山分校研究團(tuán)隊(duì)研制出一款腦機(jī)接口神經(jīng)假體,能讓因中風(fēng)而無法說話的人以每分鐘78個(gè)單詞的速度交流。匹茲堡大學(xué)研究團(tuán)隊(duì)將電極植入一名四肢癱瘓者的運(yùn)動(dòng)和體感皮層,以提供對(duì)機(jī)械臂的快速、精確控制以及觸覺反饋。腦機(jī)接口公司Synchron也在進(jìn)行實(shí)驗(yàn),以測(cè)試一種允許癱瘓者控制計(jì)算機(jī)的系統(tǒng)。

        分辨率精益求精

        科學(xué)家正在努力縮小超分辨率顯微鏡與結(jié)構(gòu)生物學(xué)技術(shù)之間的差距。這些新方法能以原子級(jí)分辨率重建蛋白質(zhì)結(jié)構(gòu)。

        2022年,德國科學(xué)家借助名為MINSTED的方法,使用專用光學(xué)顯微鏡,能以2.3埃(約1/4納米)的精度解析單個(gè)熒光標(biāo)記。

        較新的方法則使用傳統(tǒng)顯微鏡來提供類似的分辨率。2023年,馬克斯·普朗克生物化學(xué)研究所(MPIB)開發(fā)的序列成像(RESI)方法可分辨DNA鏈上的單個(gè)堿基對(duì),用標(biāo)準(zhǔn)熒光顯微鏡展示了埃米級(jí)分辨率;德國哥廷根大學(xué)開發(fā)出“一步納米級(jí)擴(kuò)展”(ONE)顯微鏡方法,可直接成像單個(gè)蛋白質(zhì)和多蛋白復(fù)合物的精細(xì)結(jié)構(gòu)。

        全組織細(xì)胞圖譜呼之欲出

        各項(xiàng)細(xì)胞圖譜計(jì)劃正取得進(jìn)展,其中最引人注目的是人類細(xì)胞圖譜(HCA)。HCA包括人類生物分子圖譜(HuBMAP)、細(xì)胞普查網(wǎng)絡(luò)(BICCN)以及艾倫腦細(xì)胞圖譜。

        去年,數(shù)十項(xiàng)研究結(jié)果紛紛出爐。6月,HCA發(fā)布了對(duì)人類肺部49個(gè)數(shù)據(jù)集的綜合分析?!蹲匀弧冯s志發(fā)布文章介紹了HuBMAP的進(jìn)展,《科學(xué)》雜志也發(fā)布了詳細(xì)介紹BICCN工作的文章。

        不過,HCA至少還要5年才能完成。屆時(shí),其將為人類帶來巨大利益,科學(xué)家可使用圖譜數(shù)據(jù)來指導(dǎo)組織和細(xì)胞特異性藥物的研發(fā)。

        納米材料3D打印持續(xù)改進(jìn)

        科學(xué)家目前主要借助激光誘導(dǎo)光敏材料的“光聚合”來制造納米材料,但這項(xiàng)技術(shù)也面臨這一些亟待解決的障礙,如打印速度、材料限制等。

        在提升速度方面,2019年,香港中文大學(xué)研究團(tuán)隊(duì)證明,使用2D光片而非傳統(tǒng)脈沖激光器來加速聚合,可將制造速率提高1000倍。

        并非所有材料都可通過光聚合直接打印。2022年,加州理工學(xué)院團(tuán)隊(duì)找到了巧妙的解決方法:將光聚合水凝膠作為微尺度模板,然后將其注入金屬鹽并進(jìn)行處理。這一方法有望利用堅(jiān)固、高熔點(diǎn)的金屬和合金制造出功能性納米結(jié)構(gòu)。(來源:科技日?qǐng)?bào))

      (責(zé)編:陳濛濛)

      版權(quán)聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關(guān)法律責(zé)任。