おたくま経済新聞

ネットでの話題を中心に、商品レビューや独自コラム、取材記事など幅広く配信中!

言語処理学会第31回年次大会のチューニングコンペティションの2部門で当社のYAMALEXチームが入賞しました!

update:
   
アクロクエストテクノロジー株式会社
~数学タスク部門で準優勝、安全性タスク部門で第3位を受賞~



[画像1: https://prcdn.freetls.fastly.net/release_image/49440/38/49440-38-40d95a7702f0eedd4030fe79152ddd8e-1200x799.jpg?width=536&quality=85%2C75&format=jpeg&auto=webp&fit=bounds&bg-color=fff ]


アクロクエストテクノロジー株式会社(本社:神奈川県横浜市・代表取締役:新免流、以下、アクロクエスト)のデータサイエンスチームであるAcroYAMALEX(以下、YAMALEX)は、言語処理学会第31回年次大会(NLP2025)で開催された『第1回「大規模言語モデルのファインチューニング技術と評価」ワークショップ』の「チューニングコンペティション」で入賞したことをお知らせします。


■第1回「大規模言語モデルのファインチューニング技術と評価」ワークショップとは
大規模言語モデル(LLM)のファインチューニング技術に関心のある研究者が議論を行うワークショップです。2025年3月に開催された第1回のワークショップでは、ファインチューニング技術を競うコンペティションを実施し、用いられた技術や結果について発表を行い、ファインチューニング技術に対する理解を深めるものとして開催されました。


コンペティションでは、以下2つの部門について、評価を行いました。
- 安全性チューニングタスク:安全性と有用性を両立した応答をするためのチューニングを行います。安全性への配慮を要するQAデータセット「AnswerCarefully」、一般ドメインのQAデータセット「ichikara-instruction」と同等のテストデータを用いて、安全性と有用性の2つの側面を評価します。
- 数学チューニングタスク:算数や数学の問題を解く能力を向上させるためのチューニングを行います。算数・数学の試験問題をテストデータとして評価を行い、モデルの数学能力を評価します。



■YAMALEXチームの結果
当社の最先端技術研究チームである「YAMALEX」は、この大会にチームとして参加し、全18チームが参加する中で、両部門で入賞しました。

[表: https://prtimes.jp/data/corp/49440/table/38_1_39b652fe6739a554c4b2a85d4d18c141.jpg ]
[画像2: https://prcdn.freetls.fastly.net/release_image/49440/38/49440-38-61864402143d26b25d1820725fc5c379-1200x419.png?width=536&quality=85%2C75&format=jpeg&auto=webp&fit=bounds&bg-color=fff ]


今回、LLMを利用してデータセットを構築し、LLMに対してコード生成、思考能力を向上させるためのファインチューニングを行い、精度の向上を実現しました。


▼言語処理学会第31回年次大会(NLP2025)
第1回「大規模言語モデルのファインチューニング技術と評価」ワークショップ
チューニングコンペティション
https://llm-jp.github.io/tuning-competition/index.html

■参加チーム概要
- チーム名: YAMALEX(ヤマレックス)
- メンバー:佐々木 峻、山本 大輝、樋口 慎



以下、YAMALEXチームリーダーでKaggle Grandmasterの山本と、機械学習エンジニアの佐々木のコメントです。

<山本コメント>
コンペティションに参加することにより、LLMへのコードや数学の解き方をはじめとした思考能力の与え方を学ぶことができました。特に数学は今回のベースモデルでは学習されていないもので、標準モデルだと精度が低く、推論時に何を推論させるのかといった仕組みまで踏まえて考える必要があり、難しいものでした。
LLM単独ではなく、コード生成をはじめとしたLLMへの思考過程の与え方を工夫することで精度を向上させられ、2位を獲得できました。



<佐々木コメント>
コンペティションでは13Bモデルをフルサイズでファインチューニングするという通常リソースの制約で実行することが難しいことにチャレンジできました。特に数学タスクに注力して取り組みましたが、ベースモデルの数学能力が低い中で、どの程度学習させれば数学能力が向上するのか、いざファインチューニングになるとどの程度時間がかかるのかなど学びが多いコンペティションでした。



アクロクエストは、これからもAI/機械学習やデータ分析・解析の技術向上を図り、お客様の課題解決とより良いサービスの創出に努力してまいります。


【参考情報等】
■言語処理学会第31回年次大会(NLP2025)
https://www.anlp.jp/proceedings/annual_meeting/2025/


■[発表資料]FT-LLM2025 Team:YAMALEX Solution
https://llm-jp.github.io/tuning-competition/pdfs/yamalex_ppt.pdf

[画像3: https://prcdn.freetls.fastly.net/release_image/49440/38/49440-38-06bd0d5a4c50370a750ca258ce5a6eb5-726x348.png?width=536&quality=85%2C75&format=jpeg&auto=webp&fit=bounds&bg-color=fff ]アクロクエストテクノロジー株式会社
アクロクエストテクノロジー株式会社 広報 担当/白井 智子(しろい さとこ)

本件に関するお問い合わせは、以下のメール、またはお問い合わせフォームにてお願いいたします。

〒222-0033 神奈川県横浜市港北区新横浜3-17-2 友泉新横浜ビル 5階
E-MAIL(営業) : acropr@acroquest.co.jp

お問い合わせフォーム
https://www.acroquest.co.jp/company/contact-all

最近の企業リリース

トピックス

  1. 実在する警察番号表示の詐欺急増、警察庁が注意喚起

    実在する警察番号表示の詐欺急増、警察庁が注意喚起

    実在する警察署の電話番号を画面に表示させたうえで詐欺に誘導する手口が急増しているとして、3月18日に…
  2. 赤ちゃんの美しすぎるつむじに24万いいね 「こんなに巻くの?」

    赤ちゃんの美しすぎるつむじに24万いいね 「こんなに巻くの?」

    吸い込まれそうなくらい、見事な渦巻きです。ライターとして活動する高木はるかさんがこのほどXに投稿した…
  3. 「地球だんご」を作ってみた!東京とブラジルで同時に串刺し、ネットで話題に

    「地球だんご」を作ってみた!東京とブラジルで同時に串刺し、ネットで話題に

    地球は丸いです。この世には様々な主張がありますが、とりあえず筆者はその認識です。そしてだんごも丸いで…

編集部おすすめ

  1. この中に1匹、仲間外れがいる!床に並んだぬいぐるみたちに紛れる茶トラ猫
     カーペットの上にいくつものぬいぐるみが並んでいます。サメ、海老……それから猫ちゃん。猫ちゃんは、ぬ…
  2. 手のスケッチに便利!「ゴム手にマジックペンで線を描く」プロ直伝テクニック
    体のスケッチをする際、悩ましいのが手の部分。複雑な曲がり具合や厚みなど、面の部分を考慮しながら描くの…
  3. 可愛い子猫の衝撃ビフォーアフター!わずか1年で抱っこもやっとな大きさに
    ワンちゃんに比べると、猫ちゃんは小さな生き物というイメージが強いですが、種類によっては1メートルを超…
  4. Niantic社が「ポケモンGO」等のゲーム事業を売却 買収先は今後のサービス継続を明言
    「ポケモンGO」や「ピクミンプルーム」「モンスターハンターNow」などの位置情報ゲームを開発したアメ…
  5. 竹本英史さん公式X(@eiji10sayoko)より
    声優の竹本英史さんが3月13日、自身のX(旧Twitter)を更新し、「ゴールデンカムイ」と「白い恋…

【特集】STOP!ネット詐欺!

  1. さまざまなネット詐欺に潜入調査!

    さまざまなネット詐欺に潜入調査!

     インターネット上にまん延する、さまざまな詐欺サイトに「わざと」引っかかる潜入調査記事をまとめました。
ネット詐欺へ潜入調査!記事特集

提携メディア

ページ上部へ戻る