تطلق Cloudflare أدوات جديدة للذكاء الاصطناعي : سعيًا للاستفادة من جنون الذكاء الاصطناعي. تطلق Cloudflare، مزود الخدمات السحابية، مجموعة جديدة من المنتجات والتطبيقات التي تهدف إلى مساعدة العملاء على بناء نماذج الذكاء الاصطناعي ونشرها وتشغيلها على حافة الشبكة.
يتيح أحد العروض الجديدة، Workers AI. للعملاء الوصول إلى وحدات معالجة الرسومات القريبة فعليًا والتي يستضيفها شركاء Cloudflare لتشغيل نماذج الذكاء الاصطناعي على أساس الدفع أولاً بأول. وهناك تطبيق آخر. وهو Vectorize، يوفر قاعدة بيانات متجهة لتخزين تضمينات المتجهات – تمثيلات رياضية للبيانات – التي تم إنشاؤها بواسطة نماذج من الذكاء الاصطناعي للعمال. أما البوابة الثالثة، وهي بوابة الذكاء الاصطناعي، فقد تم تصميمها لتوفير مقاييس لتمكين العملاء من إدارة تكاليف تشغيل تطبيقات الذكاء الاصطناعي بشكل أفضل.
تطلق Cloudflare أدوات جديدة للذكاء الاصطناعي:
وفقًا للرئيس التنفيذي لشركة Cloudflare ماثيو برينس. كان الدافع وراء إطلاق مجموعة المنتجات الجديدة التي تركز على الذكاء الاصطناعي هو الرغبة القوية من عملاء Cloudflare للحصول على حل إدارة الذكاء الاصطناعي أبسط وأسهل استخدامًا – حل مع التركيز على توفير التكاليف.
وقال برينس لـ TechCrunch في مقابلة عبر البريد الإلكتروني: “إن العروض الموجودة بالفعل في السوق لا تزال معقدة للغاية . فهي تتطلب الجمع بين الكثير من البائعين الجدد، وتصبح باهظة الثمن بسرعة”. “هناك أيضًا القليل جدًا من المعرفة المتاحة حاليًا حول كيفية إنفاق الأموال على الذكاء الاصطناعي. تمثل إمكانية المراقبة تحديًا كبيرًا حيث يرتفع إنفاق الذكاء الاصطناعي بشكل كبير. يمكننا المساعدة في تبسيط كل هذه الجوانب للمطورين.”
ولتحقيق هذه الغاية. يحاول الذكاء الاصطناعي العمالي ضمان حدوث استنتاج الذكاء الاصطناعي دائمًا على وحدات معالجة الرسومات القريبة من المستخدمين (من وجهة نظر جغرافية) لتقديم تجربة مستخدم نهائي مدعومة بالذكاء الاصطناعي ذات زمن وصول منخفض. من خلال الاستفادة من ONNX. وهي مجموعة أدوات التعلم الآلي الوسيطة المدعومة من Microsoft والمستخدمة للتحويل بين أطر عمل الذكاء الاصطناعي المختلفة. يسمح Workers AI لنماذج الذكاء الاصطناعي بالعمل في أي مكان تكون فيه المعالجة أكثر منطقية من حيث عرض النطاق الترددي وزمن الوصول والاتصال والمعالجة وقيود الترجمة.
يمكن لمستخدمي الذكاء الاصطناعي العاملين اختيار نماذج من الكتالوج للبدء. بما في ذلك نماذج اللغات الكبيرة (LLMs) مثل Meta’s Llama 2، ونماذج التعرف التلقائي على الكلام، ومصنفات الصور،
تطلق Cloudflare أدوات جديدة للذكاء الاصطناعي : ونماذج تحليل المشاعر. باستخدام Workers AI، تظل البيانات في منطقة الخادم التي كانت موجودة فيها في الأصل. وأي بيانات تستخدم للاستدلال – على سبيل المثال. لا يتم استخدام المطالبات التي يتم تغذيتها إلى LLM أو نموذج إنشاء الصور لتدريب نماذج الذكاء الاصطناعي الحالية أو المستقبلية.
“من الناحية المثالية، يجب أن يتم الاستدلال بالقرب من المستخدم للحصول على تجربة مستخدم ذات زمن وصول منخفض. ومع ذلك، لا تتمتع الأجهزة دائمًا بالقدرة الحاسوبية أو طاقة البطارية اللازمة لتنفيذ نماذج كبيرة مثل LLMs. “وفي الوقت نفسه، غالبًا ما تكون السحب المركزية التقليدية بعيدة جدًا جغرافيًا عن المستخدم النهائي. تتمركز هذه السحابة المركزية أيضًا في الغالب في الولايات المتحدة. مما يجعل الأمر معقدًا بالنسبة للشركات في جميع أنحاء العالم التي تفضل عدم (أو لا يمكنها قانونيًا) إرسال البيانات خارج وطنها الأم. يوفر Cloudflare أفضل مكان لحل هاتين المشكلتين.
لدى Workers AI بالفعل شريك بائع رئيسي: شركة Hugging Face الناشئة للذكاء الاصطناعي. تقول Cloudflare إن Hugging Face ستعمل على تحسين نماذج الذكاء الاصطناعي التوليدية لتعمل على Workers AI، بينما ستصبح Cloudflare أول شريك GPU بدون خادم لنشر نماذج Hugging Face.
Databricks شيء آخر. تقول Databricks إنها ستعمل على جلب استنتاجات الذكاء الاصطناعي إلى الذكاء الاصطناعي للعمال من خلال MLflow. وهي منصة مفتوحة المصدر لإدارة سير عمل التعلم الآلي، وسوق Databricks للبرامج. ستنضم Cloudflare إلى مشروع MLflow كمساهم نشط، وستطرح Databricks إمكانات MLflow للمطورين الذين يبنون بنشاط على منصة Workers AI.