Metadata-Version: 2.1
Name: iinfer
Version: 0.10.5.1
Summary: iinfer: An application that executes AI model files in onnx or mmlab format.
Home-page: https://github.com/hamacom2004jp/iinfer
Author: hamacom2004jp
Author-email: hamacom2004jp@gmail.com
Maintainer: hamacom2004jp
Maintainer-email: hamacom2004jp@gmail.com
License: MIT
Download-URL: https://github.com/hamacom2004jp/iinfer
Description: # iinfer (Image Inference Application)
        
        - onnx又はmmlabフォーマットのAIモデルファイルを実行するアプリケーションです。
        - ドキュメントは[こちら](https://hamacom2004jp.github.io/iinfer/)。
        - iinferを使用することで、AIモデルを簡単に実行することが出来ます。
        - 動作確認したモデルは[動作確認済みモデル](https://hamacom2004jp.github.io/iinfer/docs/models.html)に記載しています。
        - 主なAIタスクは、画像分類、物体検知、領域検知、顔検知、顔認識です。
        - 複数の `iinfer` コマンドの入出力をつなげる、パイプライン処理を行うことが出来ます。
        - GUIモードを使用することで、 `iinfer` コマンド操作を簡単に行うことが出来ます。
        
        
        ## iinferの動作イメージ
        
        ![iinferの動作イメージ](https://github.com/hamacom2004jp/iinfer/raw/main/docs_src/static/orverview.drawio.png)
        
        1. **iinfer client** は **imageファイル** や **camera** から画像を取得し、 **推論結果 predict.json** を出力します。
        2. **iinfer server** は推論を行うサーバーです。 **iinfer client** からの要求に応えて、推論結果を **iinfer client** に返します。
        3. **iinfer server** は予め **ai model** をロードしておくことで、推論を高速化します。
        4. **iinfer client** と **iinfer server** は **Redis** 経由で通信します。
        5. **iinfer server** と **Redis** は **dockerコンテナ** を使用して起動させることが出来ます。
        
        ## インストール方法
        
        インストール方法は [こちら](https://hamacom2004jp.github.io/iinfer/docs/install.html) を参照してください。
        
        ## iinferの使用方法
        
        iinferを使用するには、次のコマンドを実行します:
        
        1. guiモードで利用する場合:
        
        ![guiモードのイメージ](https://github.com/hamacom2004jp/iinfer/raw/main/docs_src/static/ss/00242_cmd_predict.jpg)
        
        ```bash
        iinfer -m gui -c start
        ```
        
        2. コマンドモードで利用する場合
        
            1. AIモデルのデプロイ:
        
            ```bash
            # 画像AIモデルのデプロイ
            # 推論タイプはモデルのAIタスクやアルゴリズムに合わせて指定する。指定可能なキーワードは"iinfer -m client -c predict_type_list"コマンド参照。
            iinfer -m client -c deploy -n <任意のモデル名> -f \
                                       --model_file <モデルファイル> \
                                       --model_conf_file <モデル設定ファイル> \
                                       --predict_type <推論タイプ> \
                                       --label_file <ラベルファイル>
        
            # デプロイされている画像AIモデルの一覧
            iinfer -m client -c deploy_list -f
            ```
        
            2. AIモデルのセッションを開始:
        
            ```bash
        
            # 画像AIモデルを起動させて推論可能な状態に(セッションを確保)する
            # use_trackを指定するとObjectDetectionタスクの結果に対して、MOT（Multi Object Tracking）を実行しトラッキングIDを出力する。
            iinfer -m client -c start -n <モデル名> -f \
                                      --use_track
            ```
        
           3. 推論を実行:
        
            ```bash
            # 推論を実行する
            # output_previewを指定するとimshowで推論結果画像を表示する（GUI必要）
            iinfer -m client -c predict -n <モデル名> -f \
                                        -i <推論させる画像ファイル> \
                                        -o <推論結果の画像ファイル> \
                                        --output_preview
        
            # カメラキャプチャー画像を元に推論を実行し、クラススコアが0.8以上の物体のみを検出する
            # --stdin --image_type capture で標準入力のキャプチャー画像を推論する
            iinfer -m client -c capture | \
            iinfer -m client -c predict -n <モデル名> \
                                        --stdin \
                                        --image_type capture \
                                        --nodraw | \
            iinfer -m postprocess -c det_filter -f -P \
                                        --stdin \
                                        --score_th 0.8
            ```
        
            4. AIモデルのセッションを開放:
        
            ```bash
            # 画像AIモデルを停止させてセッションを開放
            iinfer -m client -c stop -n <モデル名> -f
            ```
        
        ## Lisence
        
        This project is licensed under the MIT License, see the LICENSE file for details
        
Keywords: onnxruntime predict inference image ai model
Platform: UNKNOWN
Classifier: Development Status :: 4 - Beta
Classifier: Intended Audience :: Developers
Classifier: Intended Audience :: Information Technology
Classifier: Intended Audience :: System Administrators
Classifier: License :: OSI Approved :: MIT License
Classifier: Natural Language :: Japanese
Classifier: Programming Language :: Python
Classifier: Topic :: Utilities
Requires-Python: >=3.8
Description-Content-Type: text/markdown
