دنیای ابرها با سرویس ابری

در دنیای ابرها با سرویس ابری چه چیزی پیش روی ما خواهد بود؟

زمانی که سرویس ابری به بازار آمد نگرانی‌هایی در مورد مالکیت برنامه‌ها و مالکیت معنوی (IP) ایجاد شد.. به عنوان مثال مشتریان می‌پرسیدند: یعنی ما به شخص دیگری اجازه می‌دهیم از داده‌های ما مراقبت کند؟ زیرساخت های امنیتی ضعیف، ناقص و در برخی موارد بسیار شکننده بود.

ساخت و توسعه خدمات رایانش ابری با پیچیدگی های زیادی تحت تاثیر قرار گرفت و هیچ کس واقعا کتابچه راهنمای نحوه انجام همه این موارد را در وهله اول ننوشته بود. مهندسان کمی در زمینه cloud وجود داشتند و در سازمان هایی که مهاجرت به سرویس ابری اتفاق می ­افتاد، تنها بخش محدودی از خدمات بر روی سرویس ابری قرار می­گرفت.

 

اما همه چیز تغییر کرد!

همانطور که همه ما می دانیم، تکنولوژی ابری تکامل و گسترش یافته، زیرساخت های امنیتی آن ارتقا داده شده و کار با آن بسیار ساده شده است. همه اینها کمک کرده تا تصور ما از سرویس ابری یک فناوری پیچیده به یک ابزار کاربردی در دسترس تبدیل شود.

اگرچه که این پیشرفت برای بسیاری از ما خوشایند است، اما رسیدن به این نقطه کار آسانی نبود. پس چگونه به جایی که اکنون هستیم رسیدیم و قرار است در آینده دنیای ابرها چه تغییری کند؟

 یکی از افرادی که در بازه زمانی از ظهور سرویس ابری تا امروز تلاش زیادی برای پیاده ­سازی آن کرده است و درک می­کند که چگونه سطوح جدیدی از محاسبات مجازی در حال حاضر ساخته می شوند، Tomsen Bukovec است. او در نقش خود به­ عنوان معاون فناوری در Amazon Web Services ، با تیمی از مهندسان کار می­کند که وظیفه ایجاد و اجرای خدمات ابری امروزه و آینده را برعهده دارند.

 

با شروع اصول اولیه، یکی از تغییراتی که Tomsen Bukovec به آن اشاره می­کند این است که حداقل برای AWS، تمرکز اصلی روی امنیت بوده است. این اولین اقدامی است که از زمان ایجاد اولین سرویس ابری آمازون که در سال 2006 راه اندازی کرد، انجام شده است. هنگامی که مشتری شروع به خرید سرور ابری و استفاده از این سرویس می­کند یا ذخیره سازی با AWS انجام می­ دهد، همیشه به طور پیش فرض همه موارد امنیتی اجرا شده و سرویس به طور کامل ایمن است.

خرید سرور ابری برای چه کسانی مناسب است؟

او معتقد است که: “این بخشی از فرهنگ و مدل ذهنی آمازون برای ساخت محصولات است و در هر سرویس از خدمات دیتاسنتری گرفته تا سرویس ابری جدید لحاظ می­شود. این تلاش برای بهبود محصول در جنبه های مختلف به صورت مستمر ایجاد می شود و مشتریان برای بهره‌مندی از پیشرفت‌هایی که دائما اضافه می‌کنیم، مجبور نیستند هیچ تغییری در برنامه‌های خود ایجاد کنند.

موسسه گارتنر پیش‌بینی می‌کند که تا سال ۲۰۲۶، ۷۵ درصد از سازمان‌ها در مدل تحول دیجیتالی، سرویس ابری را به‌عنوان پلتفرم زیربنایی اساسی خود، اتخاذ خواهند کرد.

آینده ای نزدیک به پیش بینی گارتنر

موسسه گارتنر پیش‌بینی می‌کند که تا سال ۲۰۲۶، ۷۵ درصد از سازمان‌ها در مدل تحول دیجیتالی، زیرساخت ابری را به‌عنوان پلتفرم زیربنایی اساسی خود، اتخاذ خواهند کرد. تاکید تامسون بوکووک در حال حاضر بر روی ساده‌تر کردن استفاده از سرویس ابری است. در سال 2018، آمازون یک کلاس ذخیره‌سازی جدید به نام Amazon S3 Intelligent Tiering راه‌اندازی کرد که به‌طور خودکار برای داده‌هایی که بیش از یک ماه به آن‌ها دسترسی پیدا نمی‌کنیم، هزینه کمتری دریافت می‌کند.

در واقع شرکت آمازون بستری را فراهم می­کند که هر چه داده‌های بدون دسترسی، زمان بیشتری در فضای ذخیره‌سازی بمانند، سازمان در مقایسه با داده‌هایی که هر روز به آن‌ها دسترسی پیدا می­کند، تا ۹۵ درصد تخفیف‌ لحاظ کند. این رویکرد، کار را برای کاربرانی که نمی‌دانند الگوهای دسترسی ذخیره‌سازی آنها تغییر می‌کند بسیار ساده می‌کند و این یکی از دلایلی است که شرکت‌ها این کلاس ذخیره‌سازی را برای Big Data ­های خود انتخاب می‌کنند، جایی که الگوهای دسترسی به داده‌ها همیشه تغییر می‌کنند.


کنترل کامل روی سرویس ­ها توسط مشتریان؛ تاکید دوم تیم طراحی محصول آمازون است. به ­عنوان مثال، با سرویس محاسباتی آمازون EC2، مشتریان بیش از 575 نمونه برای انتخاب دارند، از محاسبات پایه تا محاسبات با کارایی بالا که دارای تراشه‌های طراحی‌شده AWS، بهینه‌سازی شده برای یادگیری ماشین (ML) هستند.

در آمازون S3، کاربران می­توانند داده ­های خود را در هر یک از هفت کلاس ذخیره ­سازی شرکت ذخیره کنند. گزینه­های ذخیره سازی در آمازون S3 از ذخیره ­سازی بایگانی که شرکت­ ها می توانند برای ذخیره نسخه­ های پشتیبان و داده ­های تاریخی با کمتر از یک دهم سنت آمریکا در هر گیگابایت در ماه استفاده کنند تا فضای ذخیره­ سازی بسیار کارآمد که برای پیش آموزش استفاده می شود را شامل می­شود.

AWS Trainium و AWS Inferentia تراشه‌های طراحی شده سفارشی این شرکت هستند که به ترتیب برای کار آموزش و استنتاج با برنامه‌های ML و AI ساخته شده‌اند. این تراشه‌ها همچنین عملکرد بالاتری در هر وات نسبت به نمونه‌های قابل مقایسه با پردازنده گرافیکی دارند، بنابراین واضح است که شرکت‌هایی مانند AWS و سایر ابر مقیاس‌کننده‌های ارائه‌دهنده سرویس ابری (CSP) تمرکز مشخصی بر جستجوی پربازده‌ترین پردازنده‌های انرژی برای این حجم از داده دارند.


سرویس ابری در سال 2030

Tomsen Bukovec معتقد است که: “با نگاهی به آینده و حتی در اواخر این دهه، سرویس ابری در هر کاری که ما انجام می دهیم فراگیر خواهد بود.” «رایانش ابری به همه چیز، از شهرهای هوشمند گرفته تا زیرساخت‌های بانکی، خدمات دولتی و تجربیات اجتماعی پیش رو وارد می شود.»

در حال حاضر به نظر می‌رسد در نقطه‌ای هستیم که همه سازمان‌ها باید مهارت‌های ابری را به عنوان بخشی از تلاش‌های نوسازی دیجیتال در بخش فناوری اطلاعات خود توسعه دهند. مهارت‌های ابری؛ استاندارد جدیدی برای چابکی سازمانی خواهند بود، چه در توسعه نرم‌افزار، چه در تجزیه و تحلیل داده‌ها یا هر بخش دیگری در یک سازمان.

مرکز داده تبیان در سال 1393 به صورت محدود اولین سرویس ابری در ایران را ارائه کرده است و در سال 1400 با ایجاد یک زیرساخت جدید سرویس ابری جدید خود را با نام ابریس به صورت عمومی عرضه کرد.


تفاوت در استنتاج است

با نگاهی به آینده، بیشتر هزینه‌های ML آینده از اجرای استنتاج حاصل می‌شود، که فرآیند اعمال یک مدل ML به یک مجموعه داده و تولید یک خروجی یا «پیش‌بینی» است. ما AWS Inferentia را مهندسی کرده‌ایم تا بهترین قیمت را برای عملکرد جهت اجرای هر نوع استنتاج ارائه کنیم.» Tomsen Bukovec گفت: در واقع ما از AWS Inferentia در بسیاری از تیم‌ها در سراسر آمازون استفاده می‌کنیم که اکنون بیش از 20 سال است که یادگیری ماشین را در مقیاس بزرگ انجام می‌دهند.

چه یک کلاس ذخیره ­سازی هوشمند باشد که به صورت پویا قیمت­ گذاری را براساس دسترسی به داده ها تنظیم می­کند، چه پردازنده ­های سفارشی ساخته شده برای آموزش و استنباط در ML/AI، AWS باشد که به ساده ­سازی نحوه انتخاب سرویس ابری مورد نیاز سازمان ­ها کمک می­کند.


Tomsen Bukovec که از او خواسته شد یکی از فناوری‌های مورد علاقه‌اش را که اکنون به سمت بالا ظاهر می‌شود، مشخص کند؛ اذعان می‌کند که درباره پردازنده نسل سوم مبتنی بر ARM این شرکت، AWS Graviton 3 در EC2، «هیجان زده» است. در زمانی که همه ما نگران تاثیرات محیطی ابر هستیم، او خاطرنشان می­کند که این تراشه 60٪ انرژی کمتری را برای عملکرد مشابه نسبت به نمونه های مشابه آمازون EC2 مصرف می­کند.

به ­عنوان یک سازمان، ما بر روی مبارزه با پایداری و تغییرات آب و هوایی متمرکز هستیم. درواقع، در نوامبر سال 2023، ما 78 پروژه جدید بادی و خورشیدی را به مجموعه خود اضافه کردیم و تا کنون تا سال 2023 به 479 پروژه در سراسر جهان رسیده ­ایم که این تعداد برای تامین انرژی 6.7 میلیون خانه در ایالات متحده یا 19.4 میلیون خانه اروپایی کافی است. 

این پروژه‌ها به عملیات‌های آمازون مانند دیتاسنترهای AWS، ساختمان‌های اداری نیرو می‌دهند و هر پروژه ما را تا سال 2025 به تامین انرژی 100% انرژی‌های تجدیدپذیر نزدیک‌تر می‌کند. من شخصا از این تعهد به پایداری بسیار هیجان‌زده هستم.”


خیلی سخت است که امسال در محافل فناوری بدون شنیدن چیزی درباره gen-AI حرکت کنیم و البته AWS به طور گسترده در این زمینه کار می کند. Tomsen Bukovec به عنوان یک متخصص مهندسی نرم‌افزار، به برخی از «پیشرفت‌ها» اشاره می‌کند که در قابلیت‌های تعمیم‌ یافته «مدل‌های پایه» مختلف هوش مصنوعی (اصطلاحی که قبلا در اینجا به تفصیل توضیح داده‌ایم) در شرکت‌ها در تمام بخش‌های صنعتی مشاهده می‌کند.

Tomsen Bukovec که به ­طور منظم با افسران ارشد داده صحبت می­کند، می­گوید که شرکت ها زیرساخت­  های داده AWS موجود خود را (که دارای کنترل های امنیتی است) استفاده می­کنند و از خدمات AWS خود برای کار با آن داده ­ها برای ارائه زمینه خاص شرکت به مدل ­های زبان بزرگ (LLMs) با تکنیک هایی مانند تنظیم دقیق و بازیابی نسل افزوده (RAG) استفاده می­کنند.

Tomsen Bukovec خواستار شد: “این جایی است که پایگاه های داده وارد می شوند.” «بیشتر مشتریان ما نمی خواهند مدل پایه خود را از قبل آموزش دهند. آنها می خواهند یک مدل پایه موجود را انتخاب کنند و از آن با مجموعه داده های بسیار کوچکتر و تخصصی استفاده کنند. 

هنگامی که از یک مدل پایه موجود استفاده می‌کنید، می‌توانید داده‌های خود را بگیرید و «جاسازی‌هایی» برای آن ایجاد کنید که در یک پایگاه داده ذخیره می‌شوند تا LLM شما بتواند از آن برای ارائه بهترین و مرتبط‌تر پاسخ به درخواست کاربر استفاده کند.

این به طور قابل توجهی ارتباط پاسخ‌هایی را که LLM شما ارائه می‌دهد، بهبود می‌بخشد، که واقعا در تجربه کاربر برای برنامه‌های هوش مصنوعی مولد اهمیت دارد. مشتریان بیشتری را خواهید دید که از داده‌های سفارشی خود استفاده می‌کنند، زیرا به این معنی است که می‌توانید از قابلیت‌های تعمیم‌یافته مدل پایه همراه با زمینه داده‌های تخصصی خود شرکت در تجربه هوش مصنوعی مولد بهره ببرید. بسیار مقرون به صرفه­ تر و سریع­ تر از اینکه مدل فونداسیون خود را از ابتدا آموزش دهید.”


تیم AWS از نظر پذیرش واقعی این فناوری‌های نوپا در بازار می‌گوید که هیچ کمبودی در موارد استفاده مرتبط برای هوش مصنوعی مولد وجود ندارد. موارد استفاده که به نظر می­رسد رایج­ترین موارد در بین صنایع هستند عبارتند از جستجوی دانش بهبود یافته، تولید خودکار اسناد، تجربیات بسیار شخصی­سازی شده و پردازش خودکار داده ها یا منابعی مانند تصاویر.

سازمان‌ها همچنین مدل‌های هوش مصنوعی را در «آفیس پشتی» شرکت قرار می‌دهند. این بدان معنی است که آن را برای وظایفی از دستیارهای تولید کد گرفته تا عوامل آماده ­سازی خودکار داده اعمال کنید. Amazon CodeWhisperer در این فضا قرار دارد. 

توصیه‌های کد مبتنی بر هوش مصنوعی را برای توسعه‌دهندگان ارائه می‌کند تا برنامه‌های کاربردی بسازند و پیشنهادهای کدی را که ممکن است مغرضانه یا غیرمنصفانه در نظر گرفته شوند فیلتر کنند، پیشنهادات کدی را که ممکن است شبیه داده‌های آموزشی منبع باز خاص باشد را علامت‌گذاری می‌کند؛ همچنین آسیب‌پذیری‌ها را اسکن می‌کند و کدی را برای اصلاح آنها پیشنهاد می­کند.

AWS یک چالش بهره‌وری را اجرا کرد. شرکت‌کنندگانی که از Amazon CodeWhisperer استفاده می‌کردند، 27 درصد بیشتر از افرادی که از آن استفاده نمی‌کردند، کارها را با موفقیت انجام دادند و این کار را به طور متوسط 57 درصد سریع‌تر انجام دادند. در بسیاری از این موارد، هنوز یک “انسان در حلقه” وجود دارد (عاملی که در اینجا توضیح داده شده است) که ممکن است یک عامل پشتیبانی مشتری، دانشمند داده یا توسعه دهنده و غیره باشد که پاسخ را بررسی می­کند. 

مدل فونداسیون و سپس تصمیم­ گیری درمورد نحوه استفاده از آن. این عمل خود نسل است، که قلب هوش مصنوعی مولد است و کمک بزرگی در زمان تکرار و در نهایت کارایی برای کارگران بسیاری از سازمان‌ها است.

اما سوالاتی وجود دارد که باید پرسید. با توجه به گستردگی داده ­های باز مورد استفاده در هوش مصنوعی مولد و این واقعیت که مدل ­های زبان بزرگ (LLM) اساسا برای یادگیری به جریان­ های باز اطلاعات متکی هستند، چگونه AWS موضع خود را در مورد حلقه ایمن و نرده ­های محافظ مورد نیاز برای محافظت از داده های سازمانی حیاتی در این موارد و سناریوها قرار می­دهد؟

Tomsen Bukovec می‌گوید: «ما سال‌ها سرویس ابری را برای شرکت ایجاد کرده‌ایم و همان رویکرد امنیتی را برای استفاده از هوش مصنوعی مولد اتخاذ می‌کنیم. هنگامی که Amazon CodeWhisperer و Amazon Bedrock را برای ایجاد پاسخ‌های مرتبط و مختص شرکت سفارشی می‌کنید، پایگاه‌های کد و داده‌های مشتریان کاملاً خصوصی هستند و مدل‌های زیربنایی را آموزش نمی‌دهند و از مالکیت معنوی ارزشمند آنها (IP) محافظت می‌کنند. 

مشتریان به سادگی Amazon Bedrock را به چند نمونه برچسب‌گذاری شده در Amazon S3 اشاره می‌کنند و این سرویس می‌تواند مدل را برای یک کار خاص بدون نیاز به مرور حجم زیادی از داده تنظیم کند که بسیار زمان‌بر است.

هیچ یک از داده های مشتری برای آموزش مدل های پایه اصلی استفاده نمی شود. سازمان‌ها می‌توانند تنظیمات Virtual Private Cloud را برای دسترسی به API‌ های Amazon Bedrock پیکربندی کنند و داده‌های تنظیم دقیق مدل را به روشی امن ارائه دهند و همه داده‌ها رمزگذاری شده باشند. این حتی در مورد راه اندازی بتا Bedrock نیز صادق بود. ما امنیت را در خدمات خود از ابتدا ایجاد می کنیم.»

از نظر فنی، شایان ذکر است که در مورد کاربران AWS، داده‌ها از قبل با استفاده از کنترل‌های AWS ایمن شده‌اند، بنابراین افسران ارشد امنیت (CSOs) مجبور نیستند یک مدل امنیتی جدید برای برنامه‌های هوش مصنوعی مولد ارائه کنند.


منبع: Forbes

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *