0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

TS-WLCAMシリーズを利用した顔認証出席システム

Posted at

背景

研究室に放置されていました「TS-WLCAM」を利用して何かやりたいなと思って顔認証システムを作りました。適当なのでめっちゃ低速です。もっと速いアルゴリズムを考えたら自分で改良してくれると嬉しいです。

TS-WLCAMシリーズ

TS-WLCAMシリーズはIO-DATA製の有線、無線LANの両対応可能な小型カメラです。QRコードを利用した接続も存在しますが、なんかうまくいかなかったのでPCでIPを指定して直接コントロールしています。
製品ページを以下に示します。
https://www.iodata.jp/product/lancam/lancam/ts-wlcam/

環境

  • Mac OS Sequoia 15.2
  • Python 3.13.0

TS-WLCAMの動画共有方法

TS-WLCAMにおいて、基本的なフレームレートは接続したPCで管理可能であり、10Hz-20Hz程度で選択できます。動作検知をONしていれば、そのフレームレートで動作があった場合のみ映像を共有します。映像は 
http://IPアドレス/snapshot.cgi」 
として画像で保存されます。今回はその画像をアクセスして画像認識を行うコードを書きました。

コード紹介

学習用コード

第一に、顔データをface_recognitionを使って学習させるコードを書きました。
画像データを.jpgまたは、.pngでディレクトリから検索し、その全てをface_recognitionで学習し、その結果をpickleで保存しました。
openCVは何にも使ってないので、消しても問題ありません。

face_charge.py
import face_recognition
import pickle
import os

FACE_DIR = "face_database"
ENCODINGS_FILE = "encodings.pkl"

# 登録用データ
known_encodings = []
known_names = []


for file in os.listdir(FACE_DIR):
    if file.endswith(".jpg") or file.endswith(".png"):
        name = os.path.splitext(file)[0]  
        image_path = os.path.join(FACE_DIR, file)
        
        # 画像を読み込んでエンコーディングを取得
        image = face_recognition.load_image_file(image_path)
        encodings = face_recognition.face_encodings(image)

        if len(encodings) > 0:
            known_encodings.append(encodings[0])
            known_names.append(name)
            print(f"[INFO] {name} の顔データを登録しました。")
        else:
            print(f"[WARNING] {name} の顔が検出できませんでした。")

# 学習データを保存
data = {"encodings": known_encodings, "names": known_names}
with open(ENCODINGS_FILE, "wb") as f:
    pickle.dump(data, f)

print("[INFO] 顔データベースの作成が完了しました!")

カメラからデータを取得し、顔認証を行うコード

TS-WLCAMのhttpによるデータ取得には、Digest認証が必要です。
顔データベースと出席logを読み込んだ後に画像情報を取得し、face_recognitionで顔の特徴量を割り出します。カメラの画面は表示するようにしており、face_recognitionの結果が表示されます。

face_attendance.py
import cv2
import requests
import numpy as np
import face_recognition
import pickle
import csv
import os
import time
from datetime import datetime
from requests.auth import HTTPDigestAuth

# 📌 カメラの設定 (Digest 認証)
CAMERA_IP = "" #カメラのIPアドレス
USERNAME = ""  # Digest認証のユーザー名
PASSWORD = ""  # Digest認証のパスワード(初期設定はMACID)
URL = f"http://{CAMERA_IP}/snapshot.cgi"

# 📌 出席記録用ファイル
ATTENDANCE_FILE = "attendance.csv"
LOG_FILE = "attendance.log"

print("[DEBUG] プログラム開始")

# 📌 顔データベースをロード
try:
    with open("encodings.pkl", "rb") as f:
        data = pickle.load(f)

    known_encodings = data["encodings"]
    known_names = data["names"]
    print(f"[DEBUG] 顔データベースをロード: {len(known_encodings)}")
except Exception as e:
    print(f"[ERROR] 顔データベースのロードに失敗: {e}")
    exit(1)

# 📌 出席リストを取得(1日に1回のみ記録)
def load_attendance():
    today = datetime.now().strftime("%Y-%m-%d")
    attendance_list = set()

    if os.path.exists(ATTENDANCE_FILE):
        with open(ATTENDANCE_FILE, "r") as f:
            reader = csv.reader(f)
            for row in reader:
                if row and row[0] == today:
                    attendance_list.add(row[1])
    print(f"[DEBUG] 今日の出席者リストをロード: {len(attendance_list)}")
    return attendance_list

# 📌 出席記録を保存
def mark_attendance(name):
    today = datetime.now().strftime("%Y-%m-%d")
    current_time = datetime.now().strftime("%H:%M:%S")

    with open(ATTENDANCE_FILE, "a", newline="") as f:
        writer = csv.writer(f)
        writer.writerow([today, name, current_time])

    log_message = f"{datetime.now()} [INFO] {name} の出席を記録: {current_time}\n"
    print(log_message.strip())

    # 📌 ログをファイルに保存
    with open(LOG_FILE, "a") as log_file:
        log_file.write(log_message)

# 📌 メインループ(カメラ映像取得 & 顔認識)
attendance_today = load_attendance()

while True:
    try:
        print("[DEBUG] 画像取得を開始")

        session = requests.Session()
        session.auth = HTTPDigestAuth(USERNAME, PASSWORD)

        # 📌 ネットワークエラー時のリトライ機能(最大5回)
        max_retries = 5
        for attempt in range(max_retries):
            try:
                response = session.get(URL, timeout=10, stream=True)  # タイムアウトを 10 秒に延長
                break  
            except requests.exceptions.Timeout:
                print(f"[WARNING] タイムアウト発生(試行 {attempt+1}/{max_retries}")
                time.sleep(3)
            except requests.exceptions.ConnectionError:
                print(f"[WARNING] 接続エラー(試行 {attempt+1}/{max_retries}")
                time.sleep(3)
        else:
            print("[ERROR] 最大リトライ回数を超えました。スキップします。")
            continue  

        print(f"[DEBUG] HTTPレスポンスコード: {response.status_code}")

        if response.status_code == 200:
            print("[INFO] 画像の取得に成功")

            buffer = b""
            for chunk in response.iter_content(chunk_size=16384):  #
                buffer += chunk

                start = buffer.find(b'\xff\xd8')  
                end = buffer.find(b'\xff\xd9')   

                if start != -1 and end != -1:
                    jpeg_data = buffer[start:end+2]
                    jpeg_size = len(jpeg_data)
                    print(f"[DEBUG] 取得した JPEG 画像サイズ: {jpeg_size} バイト")

                    if jpeg_size < 10000:  
                        print("[ERROR] 取得した JPEG データが小さすぎます。スキップします。")
                        continue

                    img_array = np.asarray(bytearray(jpeg_data), dtype=np.uint8)
                    frame = cv2.imdecode(img_array, cv2.IMREAD_COLOR)

                    if frame is None:
                        print("[ERROR] 画像のデコードに失敗しました。スキップします。")
                        continue

                    print("[DEBUG] 画像のデコード成功")

                    # 📌 OpenCVのBGR形式をRGBに変換
                    rgb_frame = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB)

                    # 📌 顔の検出
                    face_locations = face_recognition.face_locations(rgb_frame)
                    face_encodings = face_recognition.face_encodings(rgb_frame, face_locations)

                    print(f"[INFO] 顔検出数: {len(face_locations)}")

                    for (top, right, bottom, left), face_encoding in zip(face_locations, face_encodings):
                        matches = face_recognition.compare_faces(known_encodings, face_encoding)
                        name = "Unknown"

                        face_distances = face_recognition.face_distance(known_encodings, face_encoding)
                        best_match_index = np.argmin(face_distances)

                        if matches[best_match_index]:
                            name = known_names[best_match_index]

                            if name not in attendance_today:
                                mark_attendance(name)
                                attendance_today.add(name)

                        print(f"[INFO] 認識した顔: {name}")

                        cv2.rectangle(frame, (left, top), (right, bottom), (0, 255, 0), 2)
                        cv2.putText(frame, name, (left, top - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.9, (0, 255, 0), 2)

                    cv2.imshow("Live Face Attendance", frame)

                    break  

    except requests.exceptions.RequestException as e:
        print(f"[ERROR] ネットワークエラー: {e}")
        time.sleep(5)

    if cv2.waitKey(1) & 0xFF == ord('q'):
        break

cv2.destroyAllWindows()

コードのリンク

https://github.com/Y-Watanabe11/TS-wlcam_facial_recognition
コードは以上のリポジトリに置いてありますので、ぜひ見ていただけると嬉しいです。
中には、このほかに、接続のテストコードのほか、出席データの共有用のサーバーコードなどもあります。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?