AIがすべてを変えていく時代。そんな中、「エンジニア研修」にもAIを導入することで、未経験でもエンジニアとして採用することにチャレンジする企業がいる。
本記事ではそんな取り組みを行うソフトユージング社に、未経験エンジニア育成の実際から、エンジニア研修におけるAIの活用まで話を伺った。
「未経験歓迎」を掲げられる理由
――まずは自己紹介をお願いします。
周(しゅう): 人事部マネージャー周 棋淇と申します。採用と研修の企画・運営を担当しています。とくに、未経験の方が安心して学べる研修制度づくりに力を入れています。
項(こう): 開発部課長でエンジニアリングも行っている、項 再然と申します。私はWebアプリケーション開発がメインですが、ここ最近は自社のAI基盤の開発にも携わっています。バックエンド寄りの業務が多いですね。
――御社は未経験者の採用に積極的だと伺いました。その背景にはどんな環境があるのでしょうか。
周: まず研修が充実していることが挙げられます。 弊社では、AIエンジニア研修というものを企業様向けに展開しているのですが、それを自社でも活用していて 、未経験の方でも素早くスキルアップしていける枠組みを持っています。
――そのAI研修というのは実際どのようなものですか?
周: 最初はChatGPTやGitHub Copilotのような生成AIの基礎的な使い方から始まり、徐々にAIを活用したコーディングやデータ分析、最終的には AIサーバー(※)構築に触れる高度なステップ まで進んでいきます。
※ AIサーバー :画像認識や自然言語処理といったAI処理に特化した高性能なサーバーのこと。大量のデータを高速に処理するために、高性能なプロセッサーや大容量メモリ、高速な演算機能に特化した「AIアクセラレーター」(主にGPUなど)を搭載していることが多い。
周: ただ、AIを活用してコーディングを行う前に、最低限のプログラミングスキルは必要なので、HTML/CSS/JavaScriptといったフロントエンドの基礎から、JavaやC#を使用したバックエンドまで、一通り学べる研修も用意しています。
――研修自体はどれくらいの期間行うのですか?
周: 2〜3ヶ月です。単に学ぶだけでなく、 本番に近いプロダクトを実際に作るアウトプット型研修 も取り入れているので、最初は未経験だった方でも、自信を持って現場に入れるようになります。
――2〜3ヶ月!相当な力の入れようですね。
AI × 教育の最前線――“自社でAIサーバーを構築した理由”
――先程、AI研修の内容を伺ったときに出てきた「 AIサーバー 」とはどのようなものなのでしょうか。
項: AIサーバーとは、AI処理に特化した高性能なサーバーのことです。 実は弊社もAIサーバーを運用していて、自社のサーバーにローカルLLMをインストールして利用しています 。
――それは面白そうですね。しかし、構築も運用も大変そうです。結構お金もかかりそう。
項: GPUなどの設備投資も必要になるので、それなりの規模になります。詳しくは知らないですが、 何千万円とか掛かってるのかもしれません(笑) とはいえ、AIサーバーは未来への必需品。 買わざるを得ません 。
大型のLLMから各種アルゴリズムまで、どれも高性能な計算リソースが欠かせない。だからこそ先行投資が必要だ、というわけですね。
――それでもAIサーバーを自社で構築する利点とは何でしょうか?
項: やはり、 自社環境を持つことで柔軟に開発が行える のがいいところです。 外部に出せないデータも扱えます し、モデルを自由にカスタマイズできるのも弊社にとっては好都合です。
――実際には、AIサーバーでどんなことをされているのですか?
項: 従来は、必要な仕様を都度検索したり、サンプルコードを探しながら人手で実装していましたが、今はエージェント型のAIが要件を理解してコードを自動で組み立ててくれるようになり、開発効率が大きく向上しました。
――かなり先進的ですね。
項: AIサーバーに対するフロントエンドとなる、チャットのUIも自作しまして、研修内容について対話型で学んでいけるようにしました。さらに、研修テキストそのものもAIで最適化し、その文章をTTS(音声合成)で音声化する仕組みも導入しています。
そのうえで、AI——LLMでも大規模言語モデルでも——を活用することで、 資料を取り込むだけで自動的に動画を生成できる仕組み も整え、トレーニング時に正しく活用できるようにしています。
AIサーバー構築の苦労と学び
項: 一番大変なのはモデルの学習にかかる時間ですね 。ファイルを少し修正して再学習(※)させるだけでも、一回につき数時間かかることがあります。AIを導入したことで、モデルに学習させたい内容の幅が一気に広がりました。以前と同じ内容でも、かける時間は大幅に短縮できています。一方で、AIにはまだまだ不足している部分もあります。AIの出力を確認しながら、その都度気づいた点を修正し、自分たちのモデルを継続的に改善しています。
――複数のローカルLLMを試されたと伺いましたが、具体的にはどんなモデルを試されたのですか?
項: 試してみたのは Llama、DeepSeek、Gemmaあたりですね 。
――それぞれのモデルの特徴とかありましたら教えて下さい。
項: 試した中では、 コード生成においてはLlamaが一番強かった印象 です。
DeepSeekは、コード生成においてはLlamaほど得意ではなかったものの、 軽量で少ないリソースでも動くのが良い 点でした。
Gemmaは画像生成や企画立案のような、 クリエイティブ寄りのタスクに強い 印象でした。
――やはりモデルごとにかなり得意分野が違うんですね。
項: はい、それぞれどんどん進化しているので、今試したらまた違う結果になるかも知れませんが、それぞれ特徴が際立っていて面白かったです。
※ Llama(Meta製LLM) :Meta(旧Facebook)が開発した大規模言語モデル。扱いやすいモデルサイズと、高品質なコード生成能力で開発者から支持されている。
※ DeepSeek(高効率LLM) :中国のDeepSeek社が開発。少ないGPUリソースでも高速に動作する“効率の良さ”が特徴。
※ Gemma(Google製軽量LLM) :Googleが開発した軽量モデル。特に企画・画像生成・文章生成など“発想の広がり”が必要なタスクで強みを発揮する。
読者の皆様に伝えたいこと
――では最後に、この記事を読んでいる読者の皆様に向けて、メッセージをお願いします。
周: もしこの記事をエンジニア未経験の方がお読みだとしたら、 ITやAIに興味のある方であればどなたでも大歓迎 ですので、ぜひ弊社の求人にご応募頂けると嬉しいです。
先程も申し上げたように、研修が非常に充実しているので、「学びたい」という強い気持ちさえあれば必ずご活躍頂けると思います。
また、 エンジニア経験のある方ももちろん大歓迎 です。弊社はAIにかなり力を入れていますので、AIに興味のある方はぜひお気軽にご応募ください。
――本日は非常に貴重なお話をありがとうございました。
参考リンク集
- Meta Llama(Meta製LLM)
- DeepSeek(高効率LLM)
- Google Gemma(Google製軽量LLM)
- RAG(検索拡張生成)