- トップ
- 検索結果
記事検索結果
731件中、7ページ目 121〜140件を表示しています。 (検索にかかった時間:0.003秒)
日本語の学習データで開発されたrinnaの36億パラメーターの大規模言語モデル(LLM)をベースに、企業の業務に特化した生成AI環境を構築・開発する。
生成AIでは脳の神経回路を模倣した数理モデル(ニューラルネットワーク)を用いた「深層学習(ディープラーニング)」と呼ばれるアルゴリズムが実行されているが、その際には外部...
加えて、撮影環境の条件に合わせ「撮影パラメーター」を最大五つ事前に登録できるシーンファイル機能も搭載。
マイクで取得した溶接音を基に、専用アプリケーションで音響信号を深さに補正するパラメーターを算出、このパラメーターを表示用モニターに入力し、溶接時間による深さの変化をリアルタイムで表示する。
前回、これらの数値モデルは複雑な自然現象を大幅に単純化したモデルに基づいており、そのパラメーターは20世紀後半の地球規模での地表付近の平均気温上昇を再現するようにチューニングされていることなどを述べた...
一方、米メタとの協業では、IBMの企業向けAIプラットフォーム(基盤)「ワトソンx」において、メタのLLM「Llama2―chat」(700億パラメーター版)に対応する...
高精度計算、知見積み上げ 1790億パラメーターに挑戦 情報通信研究機構(NICT)が1790億パラメーターの大規模言語モデル(LLM)の開発...
そこでは多くのパラメーターが設定される。... マックス・プランク研究所のモデルには、雲の対流に関する「巻き込み」のパラメーターがあった(図2)。... このパラメーターは理論や観測で...
その結果を用いて、シミュレーターが最適なパラメーターを予測し、需要にあった運転をするよう制御する。
「11月末までに数十億から1000億パラメーター超のLLMの成果物を出す」(長崎社長)ことを前提に、国内に拠点を置く企業・団体を最大10程度選定する。
パラメーター数が1750億規模である米オープンAIのLLM「GPT―3」に匹敵する日本語LLMを目標に開発を進め、成果物はソースコードの共有サイト「GitHub」などを通じて24年度中に公開し、学術界...
従来は巨大モデルの構築時に計算した重要度で残すパラメーターを選んでいた。 開発した技術では、再学習時に変化の大きなパラメーターを残す。構築時の重要度は低くても再学習時に変化の大きなパ...
だが、データの学習法や計算手法は従来型とは異なり、予測や分析などに用いるパラメーター(重み付けなどの値)数もケタ違いに大きい。生成AIをめぐる開発競争は、この膨大なパラメーターをうまく...
目玉に据える日本語LLMは使い勝手を重視して、分析や予測などに用いるパラメーター(重み付けなどの値)の数をコンパクトに抑えたことが特徴だ。具体的にはLLMの性能がパラメーターの規模だけ...