هوش مصنوعی گوگل عکس‌های شما را زیرنویس می‌کند

زهرا غلامی ۳ مهر ۱۳۹۵ | ۱۰:۴۰ 25 ژانویه 2017
هوش مصنوعی

گوگل یک الگوریتم توصیف تصاویر را به نام Show and Tell برای توسعه‌دهندگان منتشر کرده است. توسعه‌دهندگان می‌توانند به آن آموزش دهند تا با دقت ۹۳.۹ درصد اشیا را در تصاویر تشخیص دهد. نسبت به دو سال گذشته، این یک پیشرفت بزرگ است، در آن زمان دقت آن الگوریتم در طبقه‌بندی تصاویر ۸۹.۶ درصد بود. توصیفات بهتر برای تصاویر می‌تواند به شکل‌های مختلفی برای تاریخ‌نگاران، افراد نابینا یا کم‌بینا و البته محققان هوش مصنوعی مفید باشد.

این الگوریتم متن باز گوگل از نسل سوم مدل Inception و یک سیستم بینایی جدید استفاده می‌کند و در تشخیص اشیای مختلف بهتر عمل می‌کند. محققان همچنین آن را برای دقت بیشتر بهینه‌سازی کردند. تیم Google Brain نوشته: «به عنوان مثال، مدل طبقه‌بندی تصاویر به شما می‌گوید که یک سگ، چمن و فریزبی در عکس وجود دارد، اما یک توصیف طبیعی درباره رنگ چمن و واکنش سگ به فریزبی هم اطلاعاتی می‌دهد.» نسل سوم مدل Inception نه تنها اشیا را در تصویر تشخیص می‌دهد بلکه رابطه بین آنها را هم می‌فهمد.

محققان با استفاده از زیرنویس‌های تصویری انسان‌نوشته سیستم‌شان را آموزش دادند. سپس این سیستم می توانست تصاویری را توصیف کند که قبلا ندیده بود. به عنوان مثال، این سیستم با استفاده از چندین تصویر سگ در ساحل، توانست زیرنویس‌هایی برای منظره‌های مشابه اما کمی متفاوت تولید کند.

گوگل کد منبع این الگوریتم را برای روی سیستم TensorFlow منتشر کرده است تا هر کسی که علاقه‌مند باشد از آن استفاده کند.

منبع: Engadget

telegram_ad2_1

برچسب‌ها :
دیدگاه شما