تعليم الذكاء الاصطناعي ليدرك العالم من خلال عينيك


اليوم  ، نعلن عن Ego4D ، وهو مشروع طموح طويل الأجل يهدف إلى حل تحديات البحث في الإدراك المتمركز حول الذات: قدرة الذكاء الاصطناعي على فهم العالم والتفاعل معه كما نفعل نحن ، من منظور الشخص الأول. عادةً ما يتعلم الذكاء الاصطناعي من الصور ومقاطع الفيديو الملتقطة من منظور الشخص الثالث ، ولكن الجيل التالي من الذكاء الاصطناعي سيحتاج إلى التعلم من مقاطع الفيديو التي تُظهر العالم من مركز الحركة. يمكن للذكاء الاصطناعي الذي يفهم العالم من وجهة نظر الشخص الأول أن يطلق عهدا جديدا من التجارب الغامرة، حيث تصبح أجهزة مثل نظارات الواقع المعزز وسماعات الواقع الافتراضي مفيدة في الحياة اليومية مثل الهواتف الذكية.

لهذا المشروع، قمنا بتكوين اتحاد من 13 جامعة ومختبر في تسعة بلدان، جمعوا أكثر من 2200 ساعة من فيديو وجهة نظر الشخص الأول في البرية، ظهر فيها أكثر من 700 مشارك يقومون بحياتهم اليومية. وهذا يزيد بشكل كبير من حجم البيانات المتمركزة حول الذات المتاحة لمجتمع البحوث بترتيب الحجم، أي أكبر 20 مرة من أي مجموعة بيانات أخرى من حيث ساعات اللقطات.

قد طورنا أيضًا خمسة تحديات مرجعية لتطوير مساعدي ذكاء الاصطناعي أكثر ذكاءً، بما في ذلك:

  •     الذاكرة العرضية: ماذا حدث ومتى (على سبيل المثال، "أين تركت مفاتيحي؟")؟
  •     التنبؤ: ما الذي من المرجح أن أفعله بعد ذلك (على سبيل المثال، "انتظر، لقد أضفت الملح بالفعل إلى هذه الوصفة")؟
  •     التلاعب باليد والأداة: ماذا أفعل (على سبيل المثال، "علمني كيف أعزف الطبول")؟
  •     التكرار السمعي البصري: من قال ماذا ومتى (على سبيل المثال، "ما هو الموضوع الرئيسي خلال الفصل؟")؟
  • التفاعل الاجتماعي: من الذي يتفاعل مع من (على سبيل المثال، "ساعدني على سماع الشخص الذي يتحدث معي بشكل أفضل في هذا المطعم الصاخب")؟

News+

6

21-10-2021 / 03-12-2021

Voir les articles

Entreprise

Autres langues

Français