1. HOME
  2. ブログ
  3. 開発ユースケース紹介
  4. IoTセンサー×AIによる工場設備の予知保全システム導入ユースケース
BLOG

ブログ

開発ユースケース紹介

IoTセンサー×AIによる工場設備の予知保全システム導入ユースケース

プロジェクト背景と課題認識

国内製造業のリーディングカンパニーであるABC工業は、複数の工場ラインで稼働するモーターやポンプ等の設備トラブルによる突発停止が年間20回を超え、生産ロスや復旧費用が毎年約¥50,000,000に達していました。従来は定期保全とファーストライン保全を組み合わせていたものの、ヒューリスティックな判断によるメンテナンス実施が多く、部品交換や修理のタイミングを逸するケースが頻発。これに伴い、老朽化設備の故障予兆を検出するために別途センサーを後付けし、ビッグデータ解析を行うべく「システム」刷新を検討しました。
本プロジェクトキックオフ時点では、ビジネスサイドから「設備停止ゼロ」を目標に掲げる一方、IT部門では高額なIoTプラットフォームの導入予算に慎重姿勢が強く、PoCから本格展開までの「予算」配分をどうするかが大きな論点となりました。さらに、既存のMES(製造実行システム)との連携やデータフォーマットの違い、現場作業者が扱いやすい操作UIなど、要件定義フェーズで「発注」範囲を明確化しないと「費用」が膨れ上がるリスクが高い状況でした。プロジェクトメンバーは迅速なPoC実施と同時に、長期的な運用コストや拡張性も視野に入れた「相場」感の把握を求められ、開発会社選定へと進む準備を始めました。

開発会社選定とPoC検証ポイント

開発会社選びでは、IoTデバイス管理、データ解析プラットフォーム、AIモデル開発の三領域すべてに実績があるパートナーを重視しました。候補として大手SIerのA社、IoT専門ベンチャーのB社、AI研究開発に強みを持つC社の三社にRFPを発行。評価基準は「センサー機器選定力」「クラウド/オンプレ連携実績」「AI予兆検知モデルの精度」「PoC期間内の対応スピード」「予算内での提案力」の五点です。
各社から提出されたPoC提案では、A社が大規模実績をアピールしつつも「費用」相場1,500万円、PoC期間も3カ月を想定。B社はIoT機器調達費込みでPoC¥800万円、2カ月で完了可能とした一方、AIモデルは汎用ライブラリのまま。C社はAIモデルのみ外部連携としつつ、IoTプラットフォームはオープンソースを活用してPoC¥1,000万円、2.5カ月とバランス感が良好でした。
最終的にC社を採択したのは、予知精度80%以上を保証するAIアルゴリズムを独自提供しつつ、既存MESへREST APIでシームレスにデータ連携できる点が高評価されたためです。PoCでは工場内の10台のモーターに振動センサーと温度センサーを取り付け、リアルタイムデータをIoTゲートウェイ経由でC社サーバーに送信。AIモデルが80時間稼働データを学習し、故障前72時間以内のアラート検知率が85%を超えたことで、本格導入の確度が飛躍的に高まりました。

システム構成と主要技術スタック

本導入では、以下のアーキテクチャを採用しました。

  • エッジ層:振動センサー・温度センサー・電流センサーをラズベリーパイ搭載IoTゲートウェイで収集し、MQTTプロトコルでデータを送信

  • メッセージング層:AWS IoT Coreでデバイス認証・TLS通信を行い、IoTメッセージをKafkaクラスターへプッシュ

  • データ基盤:Kafka ConnectでAmazon S3へ時系列データをバッチ転送し、AWS GlueでETL処理。Athenaでクエリ可能に

  • AI解析層:SageMaker上で定期リトレーニングされたXGBoostモデルをホスティングし、API経由で予兆スコアを返却

  • アプリ層:Angular+Bootstrapで設備稼働ステータスダッシュボードを構築。Slack/Email通知をLambdaで送信

  • 運用監視:CloudWatchメトリクス、Elasticsearch+Kibanaでログ可視化、PagerDuty連携でアラート

この構成により、現場でのセンサーからクラウド、AI解析、通知までのレイテンシは平均2秒以内に収まり、運用コストはAWS利用料と開発会社C社の保守費用合わせて月額¥450,000に収束。本格展開に当たっては、サーバーレス中心の設計によりインフラ初期費用を抑えつつ、スケールに応じた「費用」制御を実現しました。

予算策定とコスト試算

本プロジェクトの「相場感」を踏まえ、開発前に以下のコストモデルを試算しました。

  • PoC費用:¥1,000,000(C社提案)

  • センサー機器調達:振動×10台、温度×10台、電流×10台=¥1,200,000

  • クラウド初期構築:IoT Core/Kafka/Glue/SageMaker設定=¥2,500,000

  • アプリ・通知機能開発:フロント&バックエンド=¥2,000,000

  • テスト・品質保証:負荷試験、セキュリティ検証=¥800,000

  • 予備費:突発要件・追加検証=¥500,000

  • 合計初期費用:¥8,000,000

また、運用フェーズの「予算」として、AWS利用料(月額約¥250,000)とC社保守費(月額¥200,000)を見込んで月額¥450,000、年間¥5,400,000のモデルを作成。これにより、ABC工業の経営層も「発注」前にTCOを把握しやすく、予算承認プロセスをスムーズに通過できました。

開発・テストフェーズの具体的工程

本格開発はPoC成功後すぐに始まりました。まず、センサー取り付け工数と配線設計が施工部隊と調整され、10拠点の工場ラインで3週間かけて振動・温度・電流センサーを設置しました。並行して、C社エンジニアはIoTゲートウェイのファームウェア設定を最適化し、MQTTバッファサイズやQoSレベルを調整してパケットロスを最小化。データ収集パイプラインはステージング環境で動作テストを繰り返し、Kafkaブローカーのパラメータ(バッチサイズ、レプリケーションファクター)をチューニングしました。
バックエンド開発では、Node.jsマイクロサービス群によるデータ受信APIとバッチ処理ジョブをNestJSで実装。データ基盤側はAWS GlueのワークフローをTerraformでIaC化し、テスト用S3バケットやAthenaテーブルを自動作成。SageMakerモデルの定期リトレーニングは、Glueジョブ成功後にStep Functionsで実行し、最新版モデルを自動デプロイする仕組みを構築しました。テストチームはArtilleryでリアルタイムストリーム負荷試験を実施し、秒間1000メッセージ×10チャネルでCPU使用率が70%未満であることを確認。AI解析層の精度検証では、過去1年間分の設備故障データを使い、混同行列で再現率85%以上を達成し、Precision-RecallカーブのAUCも0.92を超えました。UIテストでは、Seleniumを用いてダッシュボードのグラフ表示、フィルタ検索、スケジュール設定画面のE2Eテストを自動化し、デプロイごとに回すことでリグレッションを防止。全体で開発工数は約1,200時間、テスト工数は約300時間、合計1,500時間を投下し、品質と納期を両立させました。

本番ローンチとリリース手順

本番展開は段階的ローンチ戦略を採用し、リスクを最小化しました。第1フェーズは先行拠点でのクローズド運用で、実装されたAPIとダッシュボードを工場管理者10名に限定利用。初週はログ収集の安定性、UIからの通知到達性を重点的にモニタリングし、Lambda関数の同時実行数を増減してスループットを最適化しました。第2フェーズは50拠点への拡大ロールアウトで、イベントBridgeを活用したスケジュール同期機能をONに。ここでは、旧システムとの二重書き込みモードで「切り戻し」が可能なことを確認し、万が一の際に旧DBに戻せる安全策を確保しました。
第3フェーズで全社一斉展開を実施し、メンテナンスウィンドウは土曜深夜2時間設け、DNS切り替えとIngress設定を更新。リリース当日のダッシュボードはFrequent Queryモードを一時OFFにし、負荷を分散しながらトラフィックピークを超えないよう調整。リリース完了後は、オンサイトとリモート混成で30名のサポート体制を3日間維持し、発生した軽微なバグ5件をパッチリリースで2時間以内に対応。ダウンタイムゼロ、ユーザー問い合わせも計10件に留まり、高い安定性を実証しました。ユーザーからは「現場の誰でも使える」「故障予兆が早くて助かる」と好評で、社内浸透度は90%を超えました。

運用保守体制とサポート体制

本番稼働後は、開発会社C社との年間保守契約のもと、24×365のオンコール体制を敷きました。SLAは初動対応1時間以内、修正完了8時間以内を明記し、チケットシステムとSlackを連携。アラートはCloudWatch+PagerDutyで自動発信し、メトリクス異常を検知次第エンジニアへ通知。Kibanaダッシュボードでは、設備毎の予兆スコア推移や故障アラート数、APIエラー率を可視化し、毎朝の8:30にCSVレポートをEメール送信する仕組みを実装しました。運用チームはC社ナレッジベースを参照しつつ、障害傾向を月次レビュー。既存RPA管理のスキルを活かし、ログ分析や問い合わせ件数を前月比で25%削減できています。アップデートは月1回の定例リリースで、小規模機能追加やセキュリティパッチを含め、90%以上の自動化されたデプロイパイプラインを運用中です。

効果測定とROI算出

導入から8カ月後の効果測定では、下記の成果が明確になりました。

  • 設備トラブル回数:年間20回→年間4回(80%削減)

  • 生産ロスコスト削減:¥50,000,000→¥10,000,000(¥40,000,000節減)

  • メンテナンス実施数:年200回→年150回(25%削減)

  • 運用サポート工数:月100時間→月30時間(70%削減)

初期開発費¥8,000,000+年間保守費¥5,400,000に対し、年間効果は¥40,000,000+¥3,600,000相当(工数削減分)=¥43,600,000。
ROI = (43,600,000 − 5,400,000) ÷ 8,000,000 × 100 ≒ 475%、約0.27年(約3.3ヶ月)で回収可能な試算です。これらのデータを経営会議でプレゼンし、追加設備への横展開予算として¥20,000,000を獲得。次年度は他拠点20工場への導入を予定しています。

今後の拡張と学び

今後はAIモデルの精度向上と現場工数完全自動集計を目指し、下記を計画中です。

  • エッジAI化:現場ゲートウェイ上で一次予兆解析を行い、クラウド通信コストを削減

  • 異常原因自動分類:教師なし学習を導入し、故障原因を自動タグ付け

  • モバイルアプリ化:現場作業者がスマホでアラート確認・メンテナンス報告を完結

  • グローバル対応:複数言語UIとタイムゾーン対応で海外工場も同一プラットフォームへ統合

本事例で得た最大の教訓は、「PoC段階でTCOを含む要件を定義し、発注先としっかり共有すること」です。加えて、開発会社との密なコミュニケーションと段階的ローンチ戦略が、費用超過や運用トラブルを未然に防ぎ、高いROIを実現する鍵となりました。

ぜひ

で貴社の開発費用感をチェックし、予知保全システム導入の第一歩にお役立てください。

お問合せ

不明点やお見積りの依頼などお気軽にください。




問い合わせを行う

関連記事