การติดตามใบหน้าที่ไม่รุนแรงโดยใช้ OpenCV เพื่อความสามัคคี
สินทรัพย์นี้เป็นตัวอย่างการติดตามใบหน้าที่ไม่แข็งซึ่งสามารถสร้างแบบจำลองและติดตามส่วนที่ซับซ้อนหลายส่วนของใบหน้าของบุคคลใน webcamtexture แบบเรียลไทม์
รหัสคือการเขียนใหม่ของ https://github.com/masteringopencv/code/tree/master/chapter6_nonrigidfacetracking โดยใช้ "OpenCV for Unity"
・ Texture2dfacetrackersample - โดยการตรวจจับและติดตามหน้าจาก Texture2D วาดจุดและการเชื่อมต่อของใบหน้า
・ WebCamtextureFacetrackersample - โดยการตรวจจับและติดตามหน้าจาก WebCamTexture วาดจุดและการเชื่อมต่อของใบหน้า
・ FaceTrackerArarsample - โดยใช้จุดติดตามของใบหน้าแสดงวัตถุ AR
1.1.3
[Common] ปรับปรุงความเร็วในการประมวลผลเล็กน้อย
1.1.2
[Common] เปลี่ยนเนมสเปซเป็น OpenCVFacetracker (เพื่อหลีกเลี่ยงความขัดแย้ง Namespace และ ClassName)
[Common] แก้ไขคำเตือน CS0618: `UnityEngine.Application.loadLevel (String) 'ล้าสมัย:` ใช้ scenemanager.loadscene'
1.1.0
[สามัญ] เปลี่ยนเป็นวิธีการเคลื่อนย้ายวัตถุ AR
1.0.9
[Common] สนับสนุน“ OpenCV สำหรับ Unity 2.0.0”
July 13, 2025
July 13, 2025
July 13, 2025
July 12, 2025
July 12, 2025
July 12, 2025
July 11, 2025
July 11, 2025
July 11, 2025
July 11, 2025