- トップ
- 検索結果
記事検索結果
73件中、3ページ目 41〜60件を表示しています。 (検索にかかった時間:0.002秒)
サムスン電子は30日、人工知能(AI)用の超高性能DRAM(記憶保持動作が必要な随時書き込み読み出しメモリー)の新製品で、12層から成る高帯域幅メモリー(HBM...
NCFは高機能半導体に搭載されるHBM(広域帯幅メモリー)というメモリーを接続しながら多段積層するのに使われる。
生成AIの台頭で需要が急増している高速DRAM「HBM」向けでも、後工程向けの複数の装置メーカーが受注を計上した。今後、次世代HBMの生産が本格化すれば装置の発注量も想定以上に増える可能性がある。
韓国の半導体メーカー、SKハイニックスは、人工知能(AI)開発に不可欠な高帯域幅メモリー(HBM)に対する旺盛な需要をさらに取り込もうと、先進的な半導体パッケージングへ...
人体モデル(HBM)やマシンモデル(MM)を含む静電気耐性試験全体で年間6000万円の売り上げを目指す。
レーザーテックは、生成人工知能(AI)でデータを高速処理する広帯域メモリー(HBM)向けに、高密度配線に欠かせない小径シリコン貫通電極(TS...
TSVは生成人工知能(AI)向けにデータを高速処理する広帯域メモリー(HBM)の高密度配線に不可欠な技術。
インターポーザーは平面に並べた複数の半導体チップとパッケージ基板をつないだり、DRAMチップを積層した広帯域メモリー(HBM)とプロセッサーを接続したりするための中継部材。
けん引役は生成人工知能(AI)向けにデータを高速処理する広帯域メモリー(HBM)。
そのために使用されるのがHBMと呼ばれる高速・大容量メモリー(DRAM)である。 ... HBMでは韓国のDRAM大手であるSKハイニックスやサムスン電子が強い。...
「生成AIの稼働や機能拡張に必要な高性能メモリー半導体(HBM)を作るためのウエハーボンディング装置を受注している。
データセンター向けのGPUは、HBMなどの3次元(3D)実装DRAMメモリー半導体とともに使われる。
プロセッサー内には高速メモリー「HBM2」が直付けされており、処理能力を左右するピークメモリーバンド幅は毎秒1024ギガバイト(ギガは10億)と高速だ。
高性能積層メモリー「HBM2」による高いメモリーバンド幅の実現に加え、ディープラーニング(深層学習)などで重要となる半精度演算や整数内積演算もできる。
共和電業が日本でHBM製品を、HBMは共和電業の製品を欧州市場でそれぞれ販売する。... HBMは日本法人を持つが、共和電業が技術面でサポートする。 ... 技術ではない、足りない“...