مجنون كمبيوتر
مدونة مجنون كمبيوتر التقنية تقدم مقالات مفيدة حول الأجهزة الذكية والشروحات الخاصة بها.

ملخص مؤتمر Google I/O 2025: الذكاء الاصطناعي يُعيد تعريف كل شيء! من Gemini و Veo 3 إلى Android XR و Google Beam

اختتمت جوجل يوم 21 مايو 2025، فعاليات مؤتمرها السنوي للمطورين Google I/O 2025، والذي جاء هذا العام ليؤكد بما لا يدع مجالاً للشك أن الذكاء الاصطناعي لم يعد مجرد ميزة إضافية، بل هو النسيج الأساسي الذي تُبنى عليه رؤية جوجل للمستقبل. هيمن نموذج Gemini بتحديثاته وقدراته المتوسعة على معظم فقرات الحدث، ممتدًا تأثيره ليشمل البحث، وأندرويد، والواقع الممتد، وأدوات المطورين، وحتى الطريقة التي نتفاعل بها مع تطبيقاتنا اليومية.

دعنا نغوص في أهم ما أُعلن عنه في هذا الحدث الحافل، مع أحدث التفاصيل من جوجل مباشرة:

1. هيمنة Gemini: تحديثات ثورية وقدرات جديدة تُذهل العقول!

Gemini 2.5 Pro Deep Think
img: google Gemini 2.5 Pro Deep Think

كان Gemini هو الكلمة الطاغية في المؤتمر، حيث كشفت جوجل عن تطورات هائلة لنماذجها اللغوية الكبيرة، مع تأكيدات على أدائها المتفوق:

  • Gemini 2.5 Pro و Flash: تم إطلاق Gemini 2.5 Pro بشكل مبكر، وأكدت جوجل أنه “يجتاح صدارة قائمة LMArena في جميع الفئات” لأداء النماذج اللغوية، كما يتميز بوضع استدلال مُحسن يُدعى “Deep Think” يعتمد على تقنيات التفكير المتوازي. أما نموذج Gemini 2.5 Flash الأصغر والأسرع، فقد شهد تحسينات شاملة “عبر المعايير الرئيسية للاستدلال، وتعدد الوسائط، والبرمجة، والسياق الطويل.” الأهم من ذلك، أصبحت نماذج Gemini 2.5 الآن تدعم الإدخال السمعي البصري والقدرة على توليد حوار صوتي أصلي.
  • Gemini Live: تجربة محادثة تفاعلية وذكية تعتمد على الصوت، أصبحت الآن تدمج بشكل رسمي قدرات Project Astra المتعلقة بمشاركة الكاميرا والشاشة، مما يجعل التفاعل مع الذكاء الاصطناعي أكثر غنى وفهمًا للعالم الحقيقي من حولك. بدأت جوجل في طرح Gemini Live لتطبيقات Gemini على نظامي iOS وأندرويد.
  • تطبيق Gemini وتوسع هائل: يمتلك تطبيق Gemini الآن أكثر من 400 مليون مستخدم نشط شهريًا. ولتعزيز قدراته، أعلنت جوجل عن “وضع الوكيل” (Agent Mode) الجديد الذي سيُضاف للتطبيق لمساعدة المستخدمين على إنجاز المزيد من المهام بشكل استباقي.
  • Gemini يغزو تطبيقات جوجل: سيتغلغل Gemini بشكل أعمق في تطبيقات Workspace، حيث سيقدم ردودًا ذكية مخصصة في Gmail، ومساعدة في الكتابة مستندة إلى المصادر في Docs، وترجمة شبه فورية للكلام في Google Meet. كما يواصل Gemini توسعه في متصفح Chrome، مع خطط لتمكينه من تلخيص المعلومات عبر عدة تبويبات ودعم التصفح الصوتي.

2. مستقبل البحث مع جوجل: تجربة بحث تفاعلية ومدعومة كليًا بالذكاء الاصطناعي!

Google AI Mode
img: Google

لم يعد محرك بحث جوجل مجرد أداة لإيجاد روابط لصفحات ويب، بل هو في خضم تحول جذري ليصبح مساعدًا معرفيًا شاملاً، مدفوعًا بالقدرات الهائلة للذكاء الاصطناعي التوليدي ونماذج Gemini. وقد استعرض مؤتمر I/O 2025 ملامح هذا المستقبل المثير:

  • AI Mode (وضع الذكاء الاصطناعي): إعادة تصور شاملة للبحث! وصفته جوجل بأنه “إعادة تصور كاملة للبحث”. هذا الوضع الجديد، الذي أصبح متاحًا على نطاق واسع في الولايات المتحدة مع خطط للتوسع العالمي، لا يقتصر فقط على السماح للمستخدمين بطرح استعلامات أطول وأكثر تعقيدًا وتركيبًا، بل يهدف إلى تحويل البحث إلى تجربة حوارية وتفاعلية. سيتمكن المستخدمون من التفاعل بشكل أعمق مع AI Overviews (النظرات العامة المدعومة بالذكاء الاصطناعي)، والحصول على مساعدة أكثر فعالية في مهام مثل التسوق، حيث يمكن للبحث أن يتصرف بشكل “وكيلي” (agentic) لمساعدتك في اتخاذ قرارات معقدة.

  • AI Overviews (النظرات العامة): فهم أعمق على نطاق عالمي تستمر جوجل في توسيع نطاق هذه الميزة التي تقدم ملخصات وإجابات مباشرة مدعومة بـ Gemini في أعلى نتائج البحث. أكدت جوجل أن AI Overviews متاحة الآن لأكثر من 1.5 مليار مستخدم وتغطي 200 دولة ومنطقة بأكثر من 40 لغة، مما يعكس الثقة المتزايدة في قدرتها على تقديم إجابات سريعة وشاملة.

  • دمج قدرات Project Astra: البحث بعينيك وأذنيك! ستصبح تجربة البحث أكثر ثراءً من خلال دمج القدرات متعددة الوسائط المتقدمة من Project Astra. هذا يعني أن البحث لن يقتصر على النصوص فقط أو الصور مثلما كان في تطبيق Lens، بل سيمتد ليشمل فهم العالم المرئي والمسموع من حولك. تخيل أنك توجه كاميرا هاتفك نحو شيء ما وتطرح سؤالاً حوله، أو أن البحث يفهم سياق مقطع فيديو تشاهده ليقدم لك معلومات ذات صلة. إنها خطوة نحو جعل البحث قادرًا على التفاعل مع العالم بنفس الطريقة التي نتفاعل بها نحن.

  • تجارب بحث متخصصة: أشارت بعض التغطيات إلى استمرار جوجل في تطوير تجارب بحث متخصصة ضمن Search Labs، مثل ميزة “Try On” المحسنة التي تتيح للمستخدمين تجربة الملابس افتراضيًا، مما يعكس سعي جوجل لتقديم تجارب بحث عملية ومفيدة في مجالات محددة.

  • وظائف Project Mariner التفاعلية تنتقل إلى البحث: القدرات المتقدمة لـ Project Mariner، التي تمكن الذكاء الاصطناعي من فهم محتوى الشاشة وتنفيذ مهام معقدة ومتعددة الخطوات، ستجد طريقها أيضًا إلى “وضع الذكاء الاصطناعي” في البحث. هذا يمهد الطريق أمام بحث جوجل ليصبح ليس فقط أداة استعلام، بل منصة قادرة على إنجاز المهام بناءً على طلباتك، مما يجعله مساعدًا شخصيًا أكثر قوة وفعالية.
Project Mariner Agent Mode
Project Mariner Agent Mode

باختصار، تعمل جوجل على تحويل محرك بحثها من مجرد بوابة للمعلومات إلى شريك معرفي ذكي ومتعدد القدرات، يفهم استفساراتك المعقدة، ويتفاعل مع عالمك متعدد الوسائط، بل ويساعدك على إنجاز المهام بشكل مباشر. إنه مستقبل بحثي يعد بالكثير من الإثارة والفعالية.

3. Android XR ونظارات جوجل الذكية: نحو مستقبل الواقع الممتد!

Android XR ونظارات جوجل الذكية
img by: Xreal

أعادت جوجل تأكيد طموحاتها في مجال الواقع الممتد (XR) مع تحول واضح في التركيز نحو نظارات Android XR التي يمكن ارتداؤها بشكل يومي. هذه النظارات ستستفيد من الكاميرات والميكروفونات ومكبرات الصوت المدمجة لتفسير ما يراه المستخدم وتقديم المساعدة الفورية عبر Gemini.

  • عرض توضيحي للملاحة: تم عرض كيف يمكن للمستخدمين، بفضل قدرات Gemini وشاشة عرض اختيارية داخل العدسة، الحصول على إرشادات طريق مباشرة.
  • شراكات مع علامات تجارية عصرية: تتعاون جوجل مع علامات تجارية مشهورة في عالم النظارات مثل Gentle Monster و Warby Parker لإنشاء تصاميم أنيقة. ومن المتوقع أن نرى هذه النظارات في وقت لاحق من هذا العام (2025).
  • Project Aura من Xreal: تعمل شركة Xreal على “Project Aura”، وهي نظارات ذكية متصلة موجهة بشكل أساسي للمطورين ضمن منصة Android XR.

4. Google Beam: تطور Project Starline يُحدث ثورة في اتصالات الفيديو ثلاثية الأبعاد بأماكن العمل!

Google Beam اتصالات الفيديو ثلاثية الأبعاد

أحد أبرز كشوفات مؤتمر I/O 2025 كان تطور مشروع جوجل الطموح Project Starline إلى منصة تجارية واعدة تحت اسم Google Beam. تهدف هذه التقنية إلى إحداث ثورة في التواصل المرئي عن بُعد، خاصة في بيئات العمل، من خلال توفير تجربة اتصالات فيديو ثلاثية أبعاد (3D) واقعية بشكل مذهل دون الحاجة لارتداء نظارات خاصة.

تعتمد Google Beam على نماذج ذكاء اصطناعي متقدمة لتحويل تدفقات الفيديو ثنائية الأبعاد إلى مجسمات ثلاثية أبعاد، مقترنة بشاشات “المجال الضوئي” (light field displays) المتطورة من جوجل. النتيجة هي تجربة تواصل تسمح بالاتصال البصري الطبيعي وقراءة الإشارات الدقيقة، مما يجعل المحادثات عن بُعد تبدو وكأنها تتم وجهًا لوجه.

تستهدف جوجل بـ Beam قطاع الأعمال بشكل أساسي في مرحلته الأولى، وقد أعلنت عن شراكة مع HP لإنتاج أول الأجهزة المتوافقة، بالإضافة إلى التعاون مع شركاء توزيع عالميين مثل Diversified و AVI-SPL. ومن المتوقع أن تبدأ هذه التقنية بالوصول إلى عملاء محددين في وقت لاحق من هذا العام (2025)، واعدةً بجعل التفاعلات المهنية عن بُعد أكثر فعالية وإنسانية.

5. ثورة في إنشاء المحتوى: Veo 3، Imagen 4، وأداة Flow!

لم يقتصر مؤتمر I/O 2025 على تحديث النماذج اللغوية فحسب، بل شهد طفرة حقيقية في أدوات إنشاء المحتوى التوليدي، واضعةً بين يدي المبدعين قدرات لم تكن متخيلة قبل سنوات قليلة:

  • Imagen 4: الارتقاء بتوليد الصور إلى مستويات جديدة من الدقة والإبداع أعلنت جوجل عن Imagen 4، أحدث وأقوى نماذجها لتوليد الصور. يُقدم هذا النموذج تحسينات كبيرة في جودة الصور المولدة، وفهمًا أعمق للأوامر النصية المعقدة، وقدرة أفضل على إنشاء صور واقعية أو فنية بأنماط متنوعة. يُعد Imagen 4 مكونًا أساسيًا في منظومة جوجل الإبداعية، حيث يُمكّن أدوات مثل Flow من إنشاء شخصيات وعناصر بصرية فريدة للمشاهد السينمائية بناءً على وصف المستخدم.

  • Veo 3: نهاية “العصر الصامت” وبداية الفيديو السينمائي الناطق بالذكاء الاصطناعي! كان Veo 3 هو نجم هذا المحور بلا منازع. هذا النموذج الجديد لتوليد الفيديو لا يكتفي بإنشاء مقاطع فيديو عالية الدقة وذات اتساق بصري مذهل، بل يُحدث ثورة حقيقية بقدرته – لأول مرة في عائلة Veo – على توليد مسارات صوتية متكاملة ومتزامنة مع الصورة. هذا يشمل:

    • الأصوات البيئية والمؤثرات الصوتية: مثل ضجيج مدينة، أصوات طبيعة، أو أي مؤثرات تخدم المشهد.
    • حوار الشخصيات: مع قدرة مذهلة على مزامنة حركة الشفاه بدقة.
    • فهم عميق للغة السينمائية: يستطيع Veo 3 الآن تفسير وتنفيذ أوامر تصف لقطات كاميرا محددة (مثل “لقطة درون”، “تايم لابس”)، وأنماط بصرية، وحالات مزاجية، مما يمنح المخرجين والمبدعين تحكمًا غير مسبوق. كما يتميز Veo 3 بتحسينات في فهم فيزياء العالم الواقعي، والحفاظ على اتساق الشخصيات والمظهر العام عبر لقطات متعددة.
  • أداة Google Flow : محطة عمل متكاملة لصناعة الأفلام بالذكاء الاصطناعي لتجميع كل هذه القدرات في منصة واحدة سهلة الاستخدام، قدمت جوجل أداة Flow. هذه الأداة الثورية مصممة خصيصًا لتمكين المبدعين من تحويل أفكارهم إلى مشاهد سينمائية متكاملة. تعمل Flow بالتناغم مع:

    • Gemini: لفهم الأوامر المدخلة بلغة طبيعية وتفسير رؤية المستخدم.
    • Imagen 4: لإنشاء أو استيراد الأصول البصرية كالشخصيات والعناصر.
    • Veo (بما في ذلك Veo 2 المُحدّث و Veo 3 بقدراته الكاملة): لتوليد المشاهد الفيديوية النهائية بجودة سينمائية، مع الصوت والتحكم الدقيق في الكاميرا والحركة. تتضمن Flow ميزات مثل بناء القصة المصورة (storyboarding)، وتعديل المشاهد، وإدارة الأصول، وحتى منصة “Flow TV” لمشاركة الإبداعات والتعلم من أوامر الآخرين.

الوصول والتأثير: تتوفر هذه الأدوات المتطورة بشكل أساسي لمشتركي خطط جوجل المدفوعة للذكاء الاصطناعي (Google AI Pro و Google AI Ultra)، حيث يحصل مشتركو Ultra على أولوية الوصول إلى أحدث قدرات Veo 3 (مثل توليد الصوت) داخل Flow. كما يُتاح Veo 3 و Imagen 4 لمستخدمي الشركات عبر منصة Vertex AI.

إن هذه المجموعة من الأدوات لا تمثل مجرد تحديثات تقنية، بل هي إيذان بعصر جديد في إنشاء المحتوى، حيث يصبح الذكاء الاصطناعي شريكًا إبداعيًا قويًا، يهدف إلى دمقرطة صناعة الأفلام، وتمكين المزيد من رواة القصص من تحقيق رؤاهم الفنية بتكلفة وجهد أقل، وبإمكانيات أوسع من أي وقت مضى.

6. Project Astra: رؤية لمساعد الذكاء الاصطناعي العالمي

لم يكن Project Astra مجرد عرض تقني عابر، بل هو تجسيد لرؤية Google DeepMind الطموحة نحو بناء مساعد ذكاء اصطناعي عالمي متعدد الوسائط (multimodal universal AI assistant). يهدف Astra إلى أن يكون نظامًا قادرًا على فهم العالم من حولك بشكل مشابه للبشر، من خلال الرؤية، السمع، والتحدث في الوقت الفعلي، مع القدرة على تذكر السياق، وإظهار قدرات استدلالية، والتخطيط واتخاذ الإجراءات نيابة عن المستخدم عبر أي جهاز.

Project Astra من جوجل
img: google

خلال العروض التوضيحية، أظهر Astra قدرات مبهرة مثل:

  • الفهم البصري الآني: التعرف على الأشياء في البيئة المحيطة، الإجابة على أسئلة حول ما تراه الكاميرا، ووصف التغييرات في المشهد أثناء تحرك الكاميرا.
  • الذاكرة السياقية: تذكر تفاصيل من تفاعلات سابقة، مثل تحديد مكان وضع المستخدم لهاتفه في بداية العرض التوضيحي.
  • المساعدة في المهام: تقديم إرشادات خطوة بخطوة لحل المشكلات (مثل إصلاح أنبوب يسرب الماء بناءً على ما تراه الكاميرا)، والمساعدة في التسوق.
  • التفاعل الطبيعي: فهم وتجاهل المحادثات الجانبية أو الكلام غير الموجه إليه، وتقديم استجابات سلسة وفورية بـ 24 لغة، مع القدرة على بدء المحادثات بشكل استباقي.
  • الذكاء العملي: استخدام أدوات جوجل الأخرى مثل البحث، Gmail، التقويم، والخرائط لإكمال المهام المطلوبة.
  • التخصيص الذكي: تعلم تفضيلات المستخدم لتقديم إجابات وتوصيات مخصصة، مع القدرة على شرح منطق هذه الإجابات.

أكدت جوجل أن القدرات التي تم استكشافها في Project Astra، مثل فهم الفيديو ومشاركة الشاشة والذاكرة السياقية، يتم دمجها تدريجيًا في Gemini Live، كما يجري العمل على جلبها إلى تجارب جديدة في بحث جوجل، وواجهة برمجة تطبيقات حية (Live API) للمطورين، وحتى إلى أجهزة جديدة مثل النظارات الذكية. ورغم أنه لا يزال قيد التطوير، إلا أن Project Astra يُظهر وعدًا هائلاً بمستقبل يكون فيه الذكاء الاصطناعي شريكًا حقيقيًا ومتفاعلًا في حياتنا اليومية.

7. تحديثات متنوعة للمنتجات والخدمات:

إلى جانب الإعلانات الكبرى، شهد مؤتمر I/O 2025 مجموعة من التحديثات الهامة للعديد من منتجات جوجل الأخرى، والتي تهدف جميعها إلى تعزيز تجربة المستخدم اليومية بقدرات الذكاء الاصطناعي:

  • Google Photos (صور جوجل):

    • ميزة “اسأل صورك” (Ask Photos): تم تقديم ميزة بحث ثورية داخل صور جوجل، تتيح للمستخدمين طرح أسئلة بلغة طبيعية حول محتوى مكتبة صورهم. يمكنك أن تسأل “ما هي أفضل صورة التقطتها على الشاطئ العام الماضي؟” أو “أرني صورًا لأعياد ميلاد أطفالي”، ليقوم الذكاء الاصطناعي بالبحث وتقديم النتائج المطلوبة.
    • محرر سحري جديد (New Magic Editor): تم الكشف عن تحديثات لأداة التحرير السحرية، مما يوفر إمكانيات تعديل أكثر قوة ومرونة للصور.
  • Google Workspace (مساحة عمل جوجل): بالإضافة إلى تكامل Gemini العميق الذي ذكرناه سابقًا (في Gmail، Docs، Meet، إلخ)، تستمر جوجل في إضافة تحسينات مدعومة بالذكاء الاصطناعي لتعزيز الإنتاجية. وشمل ذلك ميزات مثل:

    • تحسينات على ميزة “دوّن ملاحظاتي” (Take notes for me) في Google Meet لالتقاط الخطوات التالية والاقتباسات من النصوص بشكل أكثر دقة.
    • تضمين تطبيقات AppSheet التفاعلية مباشرة داخل صفحات Google Sites لإنشاء تطبيقات أعمال قوية ومركزية.
    • تحسينات على تجربة صور الغلاف في Google Docs، وتسمية الرسائل الجماعية المباشرة في Google Chat.
  • متصفح Chrome:

    • تحديثات مدير كلمات المرور: حصل مدير كلمات المرور في Chrome على ترقية هامة لتعزيز الأمان، حيث أصبح قادرًا على تغيير كلمات المرور تلقائيًا للحسابات التي تم اختراقها في تسريبات البيانات المعروفة، مما يوفر طبقة حماية استباقية للمستخدمين.
  • Android Automotive (نظام أندرويد للسيارات):

    • أعلنت جوجل عن فرص موسعة للمطورين في مجال السيارات، تشمل تكاملات جديدة لـ Gemini ودعمًا قويًا لمجموعة أوسع من فئات التطبيقات داخل السيارة، بهدف إثراء تجربة القيادة والركاب.
  • أدوات المطورين (Developer Tools):

    • إطلاق “Jules”: وكيل ذكاء اصطناعي جديد مخصص للمبرمجين، يعمل بواسطة Gemini 2.5 Pro، وقادر على قراءة الأكواد وإنشائها وتصحيحها بشكل مستقل. يمكن للمطورين دمج Jules مباشرة في مستودعات الأكواد الخاصة بهم.
    • توفر أحدث نماذج توليد الوسائط مثل Veo 3 و Imagen 4 عبر منصة Vertex AI للمطورين والشركات.
    • أشارت جوجل إلى النمو الكبير في استخدام واجهة برمجة تطبيقات Gemini (أكثر من 7 ملايين مطور) واستخدام Gemini على Vertex AI (زيادة 40 ضعفًا).

هذه التحديثات، على الرغم من تنوعها، تشترك جميعها في خيط واحد: تسخير قوة الذكاء الاصطناعي لجعل منتجات جوجل أكثر فائدة، وذكاءً، وتخصيصًا لمستخدميها.

8. نظام Android 16: تصميم تعبيري جديد وذكاء مدمج!

على الرغم من أن مؤتمر I/O 2025 لم يكن المسرح الرئيسي للكشف عن كافة تفاصيل نظام التشغيل القادم، Android 16، حيث تم استعراض ميزاته بشكل أوسع في حدث خاص بنظام أندرويد أُقيم في 13 مايو 2025، إلا أن أهميته كمنصة أساسية للعديد من ابتكارات جوجل كانت واضحة.

يأتي Android 16 محملاً بتحديثات جوهرية تهدف إلى تعزيز تجربة المستخدم ودمج قدرات الذكاء الاصطناعي بشكل أعمق:

  • واجهة “Material 3 Expressive”: يُقدم هذا التحديث تطورًا لواجهة Material You، مانحًا المستخدمين مستويات أعلى من التخصيص البصري. يُتوقع أن تشمل هذه الواجهة خيارات أكثر ثراءً وديناميكية لتخصيص الألوان، والأيقونات، وحتى أشكال الواجهات لتتناسب مع تفضيلات المستخدم بشكل فريد وتجعل تجربة استخدام النظام أكثر تعبيرًا عن شخصية صاحبه.
  • تحديثات أمنية معززة وخصوصية مُحكمة: تستمر جوجل في تعزيز أمان نظام أندرويد مع كل إصدار. يُنتظر أن يأتي Android 16 بمجموعة جديدة من أدوات التحكم في الخصوصية، وآليات حماية استباقية ضد التهديدات الأمنية المتطورة، مما يضمن بقاء بيانات المستخدمين محمية بشكل أفضل.
  • تكامل أعمق لـ Gemini وقدرات الذكاء الاصطناعي: يُعد هذا الجانب هو الأكثر إثارة، حيث يهدف Android 16 إلى دمج ذكاء Gemini في صميم نظام التشغيل. هذا لا يعني فقط تطبيقات تعمل بالذكاء الاصطناعي، بل تجارب نظام أكثر ذكاءً واستباقية، مثل المساعدة السياقية المتقدمة، وميزات نظام أكثر سلاسة تعتمد على فهم سلوك المستخدم، وتفاعلات أكثر ثراءً مدفوعة بالذكاء الاصطناعي عبر مختلف أجزاء النظام والتطبيقات. سيكون Android 16 هو الأساس الذي ستُبنى عليه العديد من تجارب Gemini التي تم استعراضها خلال مؤتمر I/O.

باختصار، بينما ننتظر الغوص في كل تفصيل دقيق لـ Android 16 عند إطلاقه الكامل، فإن الإعلانات التي سبقت I/O تشير بوضوح إلى نظام تشغيل أكثر جمالاً، وأمانًا، وذكاءً بشكل غير مسبوق، ليكون الحاضن المثالي للجيل القادم من تطبيقات وخدمات جوجل القائمة على الذكاء الاصطناعي.

الخلاصة: جوجل ترسم ملامح مستقبل يعتمد كليًا على الذكاء الاصطناعي!

أكدت جوجل مجددًا على التزامها بتطوير الذكاء الاصطناعي بشكل مسؤول. ومن ضمن الأدوات التي تم تسليط الضوء عليها SynthID Detector، الذي يمكنه مسح الصور والصوت والفيديو والنصوص لاكتشاف العلامات المائية الرقمية لـ SynthID..

لم يدع مؤتمر Google I/O 2025 أي شك في أن جوجل تضع كل ثقلها وابتكاراتها في سلة الذكاء الاصطناعي. من تحويل تجربة البحث، إلى تعزيز نظام أندرويد، وإطلاق منصات جديدة مثل Google Beam للاتصالات ثلاثية الأبعاد، وإعادة إحياء طموحات الواقع الممتد، وتقديم أدوات إبداعية غير مسبوقة، يبدو أن Gemini هو المحرك الذي سيقود جوجل نحو رؤيتها لمستقبل تكون فيه التكنولوجيا أكثر فهمًا لسياقنا، وأكثر قدرة على مساعدتنا – وحتى التواصل معنا – بطرق لم تكن ممكنة من قبل. إنها بداية حقبة جديدة، و”مجنون كمبيوتر” سيكون هنا ليتابع كل تطوراتها معكم.

للمزيد: اقرأ تدوينة جوجل الرسمية I/O 2025 Keynotes

اترك تعليقا
Verified by MonsterInsights
OSZAR »