تراشه اختصاصی سازنده ChatGPT بهزودی آماده میشود

حرکت به سوی کاهش وابستگی OpenAI به NVIDIA و پردازندههای گرافیکی آن، با طراحی تراشهی هوش مصنوعی اختصاصی خود کلید میخورد. شرکت سازنده چت جی پی تی، در این زمینه به دستاوردهای چشمگیری رسیده است. گفته میشود این استارتآپ هوش مصنوعی در مرحلهی پایانی طراحی تراشهی اختصاصی قرار دارد، فرآیندی که انتظار میرود طی چند ماه آینده به اتمام برسد. اگر این روند به خوبی پیش برود، OpenAI میتواند تراشهی ساخت خود را در نیمهی نخست سال جاری برای تولید انبوه به TSMC ارسال کند.
اگرچه ممکن است چالشهای گوناگونی بر سر راه برنامههای OpenAI قرار داشته باشد، اما ظاهرا این شرکت برای تحقق هدف خود بسیار جدی است. به گزارش CNBC، فرآیند تولید آزمایشی (tape-out) حدود 6 ماه زمان خواهد برد و هزینهای بالغ بر میلیونها دلار را شامل میشود. با این وجود، اگر OpenAI مایل به پرداخت مبلغ بیشتری به TSMC باشد، این امکان وجود دارد که TSMC فرآیند تولید تراشهی هوش مصنوعی را سرعت ببخشد. متاسفانه، هیچ تضمینی برای موفقیتآمیز بودن نخستین تولید آزمایشی وجود ندارد، زیرا هرگونه ناکامی به معنای نیاز به تکرار فرآیند تولید آزمایشی و تلاش برای رفع مشکل خواهد بود.
پیشتر گزارشهایی مبنی بر استفادهی OpenAI از فرآیند A16 Angstrom شرکت TSMC برای تولیدکنندهی ویدیوی Sora منتشر شده بود، اما هنوز مشخص نیست که آیا این تراشهی هوش مصنوعی همان نمونهای است که طراحی آن قرار است در ماههای پیش رو نهایی شود یا یک راهکار داخلی متفاوت. این بخش خاص در حال حاضر تحت مدیریت ریچارد هو از OpenAI اداره میشود و شمار کارکنان متخصص آن به 40 نفر افزایش یافته است. فرآیند طراحی تراشهی داخلی با همکاری شرکت Broadcom انجام میگیرد، هرچند میزان دقیق مشارکت این شرکت هنوز مشخص نیست.
هنوز نام تراشهی هوش مصنوعی سفارشی OpenAI رسما اعلام نشده، اما کارکرد اصلی آن حول محور آموزش و راهاندازی مدلهای هوش مصنوعی خواهد بود. قابلیتهای این تراشهی سیلیکونی در ابتدا محدود خواهد بود، اما این ظرفیت میتواند متناسب با تعداد واحدهایی که شرکت سازنده ChatGPT قصد دارد در آینده به کار گیرد، افزایش پیدا کند. مطابق گزارشها، در صورت پیشرفت همهچیز طبق برنامهریزی، تولید انبوه از سال 2026 پیشبینی میشود، و TSMC از فناوری 3nm خود برای تولید این تراشه، به همراه معماری آرایهی سیستولیک و حافظهی پهنباند (HBM) که NVIDIA در پردازندههای گرافیکی هوش مصنوعی خود به کار میبرد، استفاده خواهد کرد.
منبع: 9To5Mac