- 1402-09-20
- توسعه ارتباطات هوشمند تبیان
- 0
در دنیای ابرها با سرویس ابری چه چیزی پیش روی ما خواهد بود؟
زمانی که سرویس ابری به بازار آمد نگرانیهایی در مورد مالکیت برنامهها و مالکیت معنوی (IP) ایجاد شد.. به عنوان مثال مشتریان میپرسیدند: یعنی ما به شخص دیگری اجازه میدهیم از دادههای ما مراقبت کند؟ زیرساخت های امنیتی ضعیف، ناقص و در برخی موارد بسیار شکننده بود.
ساخت و توسعه خدمات رایانش ابری با پیچیدگی های زیادی تحت تاثیر قرار گرفت و هیچ کس واقعا کتابچه راهنمای نحوه انجام همه این موارد را در وهله اول ننوشته بود. مهندسان کمی در زمینه cloud وجود داشتند و در سازمان هایی که مهاجرت به سرویس ابری اتفاق می افتاد، تنها بخش محدودی از خدمات بر روی سرویس ابری قرار میگرفت.
اما همه چیز تغییر کرد!
همانطور که همه ما می دانیم، تکنولوژی ابری تکامل و گسترش یافته، زیرساخت های امنیتی آن ارتقا داده شده و کار با آن بسیار ساده شده است. همه اینها کمک کرده تا تصور ما از سرویس ابری یک فناوری پیچیده به یک ابزار کاربردی در دسترس تبدیل شود.
اگرچه که این پیشرفت برای بسیاری از ما خوشایند است، اما رسیدن به این نقطه کار آسانی نبود. پس چگونه به جایی که اکنون هستیم رسیدیم و قرار است در آینده دنیای ابرها چه تغییری کند؟
یکی از افرادی که در بازه زمانی از ظهور سرویس ابری تا امروز تلاش زیادی برای پیاده سازی آن کرده است و درک میکند که چگونه سطوح جدیدی از محاسبات مجازی در حال حاضر ساخته می شوند، Tomsen Bukovec است. او در نقش خود به عنوان معاون فناوری در Amazon Web Services ، با تیمی از مهندسان کار میکند که وظیفه ایجاد و اجرای خدمات ابری امروزه و آینده را برعهده دارند.
با شروع اصول اولیه، یکی از تغییراتی که Tomsen Bukovec به آن اشاره میکند این است که حداقل برای AWS، تمرکز اصلی روی امنیت بوده است. این اولین اقدامی است که از زمان ایجاد اولین سرویس ابری آمازون که در سال 2006 راه اندازی کرد، انجام شده است. هنگامی که مشتری شروع به خرید سرور ابری و استفاده از این سرویس میکند یا ذخیره سازی با AWS انجام می دهد، همیشه به طور پیش فرض همه موارد امنیتی اجرا شده و سرویس به طور کامل ایمن است.
خرید سرور ابری برای چه کسانی مناسب است؟
او معتقد است که: “این بخشی از فرهنگ و مدل ذهنی آمازون برای ساخت محصولات است و در هر سرویس از خدمات دیتاسنتری گرفته تا سرویس ابری جدید لحاظ میشود. این تلاش برای بهبود محصول در جنبه های مختلف به صورت مستمر ایجاد می شود و مشتریان برای بهرهمندی از پیشرفتهایی که دائما اضافه میکنیم، مجبور نیستند هیچ تغییری در برنامههای خود ایجاد کنند.
موسسه گارتنر پیشبینی میکند که تا سال ۲۰۲۶، ۷۵ درصد از سازمانها در مدل تحول دیجیتالی، سرویس ابری را بهعنوان پلتفرم زیربنایی اساسی خود، اتخاذ خواهند کرد.
آینده ای نزدیک به پیش بینی گارتنر
موسسه گارتنر پیشبینی میکند که تا سال ۲۰۲۶، ۷۵ درصد از سازمانها در مدل تحول دیجیتالی، زیرساخت ابری را بهعنوان پلتفرم زیربنایی اساسی خود، اتخاذ خواهند کرد. تاکید تامسون بوکووک در حال حاضر بر روی سادهتر کردن استفاده از سرویس ابری است. در سال 2018، آمازون یک کلاس ذخیرهسازی جدید به نام Amazon S3 Intelligent Tiering راهاندازی کرد که بهطور خودکار برای دادههایی که بیش از یک ماه به آنها دسترسی پیدا نمیکنیم، هزینه کمتری دریافت میکند.
در واقع شرکت آمازون بستری را فراهم میکند که هر چه دادههای بدون دسترسی، زمان بیشتری در فضای ذخیرهسازی بمانند، سازمان در مقایسه با دادههایی که هر روز به آنها دسترسی پیدا میکند، تا ۹۵ درصد تخفیف لحاظ کند. این رویکرد، کار را برای کاربرانی که نمیدانند الگوهای دسترسی ذخیرهسازی آنها تغییر میکند بسیار ساده میکند و این یکی از دلایلی است که شرکتها این کلاس ذخیرهسازی را برای Big Data های خود انتخاب میکنند، جایی که الگوهای دسترسی به دادهها همیشه تغییر میکنند.
کنترل کامل روی سرویس ها توسط مشتریان؛ تاکید دوم تیم طراحی محصول آمازون است. به عنوان مثال، با سرویس محاسباتی آمازون EC2، مشتریان بیش از 575 نمونه برای انتخاب دارند، از محاسبات پایه تا محاسبات با کارایی بالا که دارای تراشههای طراحیشده AWS، بهینهسازی شده برای یادگیری ماشین (ML) هستند.
در آمازون S3، کاربران میتوانند داده های خود را در هر یک از هفت کلاس ذخیره سازی شرکت ذخیره کنند. گزینههای ذخیره سازی در آمازون S3 از ذخیره سازی بایگانی که شرکت ها می توانند برای ذخیره نسخه های پشتیبان و داده های تاریخی با کمتر از یک دهم سنت آمریکا در هر گیگابایت در ماه استفاده کنند تا فضای ذخیره سازی بسیار کارآمد که برای پیش آموزش استفاده می شود را شامل میشود.
AWS Trainium و AWS Inferentia تراشههای طراحی شده سفارشی این شرکت هستند که به ترتیب برای کار آموزش و استنتاج با برنامههای ML و AI ساخته شدهاند. این تراشهها همچنین عملکرد بالاتری در هر وات نسبت به نمونههای قابل مقایسه با پردازنده گرافیکی دارند، بنابراین واضح است که شرکتهایی مانند AWS و سایر ابر مقیاسکنندههای ارائهدهنده سرویس ابری (CSP) تمرکز مشخصی بر جستجوی پربازدهترین پردازندههای انرژی برای این حجم از داده دارند.
سرویس ابری در سال 2030
Tomsen Bukovec معتقد است که: “با نگاهی به آینده و حتی در اواخر این دهه، سرویس ابری در هر کاری که ما انجام می دهیم فراگیر خواهد بود.” «رایانش ابری به همه چیز، از شهرهای هوشمند گرفته تا زیرساختهای بانکی، خدمات دولتی و تجربیات اجتماعی پیش رو وارد می شود.»
در حال حاضر به نظر میرسد در نقطهای هستیم که همه سازمانها باید مهارتهای ابری را به عنوان بخشی از تلاشهای نوسازی دیجیتال در بخش فناوری اطلاعات خود توسعه دهند. مهارتهای ابری؛ استاندارد جدیدی برای چابکی سازمانی خواهند بود، چه در توسعه نرمافزار، چه در تجزیه و تحلیل دادهها یا هر بخش دیگری در یک سازمان.
مرکز داده تبیان در سال 1393 به صورت محدود اولین سرویس ابری در ایران را ارائه کرده است و در سال 1400 با ایجاد یک زیرساخت جدید سرویس ابری جدید خود را با نام ابریس به صورت عمومی عرضه کرد.
تفاوت در استنتاج است
با نگاهی به آینده، بیشتر هزینههای ML آینده از اجرای استنتاج حاصل میشود، که فرآیند اعمال یک مدل ML به یک مجموعه داده و تولید یک خروجی یا «پیشبینی» است. ما AWS Inferentia را مهندسی کردهایم تا بهترین قیمت را برای عملکرد جهت اجرای هر نوع استنتاج ارائه کنیم.» Tomsen Bukovec گفت: در واقع ما از AWS Inferentia در بسیاری از تیمها در سراسر آمازون استفاده میکنیم که اکنون بیش از 20 سال است که یادگیری ماشین را در مقیاس بزرگ انجام میدهند.
چه یک کلاس ذخیره سازی هوشمند باشد که به صورت پویا قیمت گذاری را براساس دسترسی به داده ها تنظیم میکند، چه پردازنده های سفارشی ساخته شده برای آموزش و استنباط در ML/AI، AWS باشد که به ساده سازی نحوه انتخاب سرویس ابری مورد نیاز سازمان ها کمک میکند.
Tomsen Bukovec که از او خواسته شد یکی از فناوریهای مورد علاقهاش را که اکنون به سمت بالا ظاهر میشود، مشخص کند؛ اذعان میکند که درباره پردازنده نسل سوم مبتنی بر ARM این شرکت، AWS Graviton 3 در EC2، «هیجان زده» است. در زمانی که همه ما نگران تاثیرات محیطی ابر هستیم، او خاطرنشان میکند که این تراشه 60٪ انرژی کمتری را برای عملکرد مشابه نسبت به نمونه های مشابه آمازون EC2 مصرف میکند.
به عنوان یک سازمان، ما بر روی مبارزه با پایداری و تغییرات آب و هوایی متمرکز هستیم. درواقع، در نوامبر سال 2023، ما 78 پروژه جدید بادی و خورشیدی را به مجموعه خود اضافه کردیم و تا کنون تا سال 2023 به 479 پروژه در سراسر جهان رسیده ایم که این تعداد برای تامین انرژی 6.7 میلیون خانه در ایالات متحده یا 19.4 میلیون خانه اروپایی کافی است.
این پروژهها به عملیاتهای آمازون مانند دیتاسنترهای AWS، ساختمانهای اداری نیرو میدهند و هر پروژه ما را تا سال 2025 به تامین انرژی 100% انرژیهای تجدیدپذیر نزدیکتر میکند. من شخصا از این تعهد به پایداری بسیار هیجانزده هستم.”
خیلی سخت است که امسال در محافل فناوری بدون شنیدن چیزی درباره gen-AI حرکت کنیم و البته AWS به طور گسترده در این زمینه کار می کند. Tomsen Bukovec به عنوان یک متخصص مهندسی نرمافزار، به برخی از «پیشرفتها» اشاره میکند که در قابلیتهای تعمیم یافته «مدلهای پایه» مختلف هوش مصنوعی (اصطلاحی که قبلا در اینجا به تفصیل توضیح دادهایم) در شرکتها در تمام بخشهای صنعتی مشاهده میکند.
Tomsen Bukovec که به طور منظم با افسران ارشد داده صحبت میکند، میگوید که شرکت ها زیرساخت های داده AWS موجود خود را (که دارای کنترل های امنیتی است) استفاده میکنند و از خدمات AWS خود برای کار با آن داده ها برای ارائه زمینه خاص شرکت به مدل های زبان بزرگ (LLMs) با تکنیک هایی مانند تنظیم دقیق و بازیابی نسل افزوده (RAG) استفاده میکنند.
Tomsen Bukovec خواستار شد: “این جایی است که پایگاه های داده وارد می شوند.” «بیشتر مشتریان ما نمی خواهند مدل پایه خود را از قبل آموزش دهند. آنها می خواهند یک مدل پایه موجود را انتخاب کنند و از آن با مجموعه داده های بسیار کوچکتر و تخصصی استفاده کنند.
هنگامی که از یک مدل پایه موجود استفاده میکنید، میتوانید دادههای خود را بگیرید و «جاسازیهایی» برای آن ایجاد کنید که در یک پایگاه داده ذخیره میشوند تا LLM شما بتواند از آن برای ارائه بهترین و مرتبطتر پاسخ به درخواست کاربر استفاده کند.
این به طور قابل توجهی ارتباط پاسخهایی را که LLM شما ارائه میدهد، بهبود میبخشد، که واقعا در تجربه کاربر برای برنامههای هوش مصنوعی مولد اهمیت دارد. مشتریان بیشتری را خواهید دید که از دادههای سفارشی خود استفاده میکنند، زیرا به این معنی است که میتوانید از قابلیتهای تعمیمیافته مدل پایه همراه با زمینه دادههای تخصصی خود شرکت در تجربه هوش مصنوعی مولد بهره ببرید. بسیار مقرون به صرفه تر و سریع تر از اینکه مدل فونداسیون خود را از ابتدا آموزش دهید.”
تیم AWS از نظر پذیرش واقعی این فناوریهای نوپا در بازار میگوید که هیچ کمبودی در موارد استفاده مرتبط برای هوش مصنوعی مولد وجود ندارد. موارد استفاده که به نظر میرسد رایجترین موارد در بین صنایع هستند عبارتند از جستجوی دانش بهبود یافته، تولید خودکار اسناد، تجربیات بسیار شخصیسازی شده و پردازش خودکار داده ها یا منابعی مانند تصاویر.
سازمانها همچنین مدلهای هوش مصنوعی را در «آفیس پشتی» شرکت قرار میدهند. این بدان معنی است که آن را برای وظایفی از دستیارهای تولید کد گرفته تا عوامل آماده سازی خودکار داده اعمال کنید. Amazon CodeWhisperer در این فضا قرار دارد.
توصیههای کد مبتنی بر هوش مصنوعی را برای توسعهدهندگان ارائه میکند تا برنامههای کاربردی بسازند و پیشنهادهای کدی را که ممکن است مغرضانه یا غیرمنصفانه در نظر گرفته شوند فیلتر کنند، پیشنهادات کدی را که ممکن است شبیه دادههای آموزشی منبع باز خاص باشد را علامتگذاری میکند؛ همچنین آسیبپذیریها را اسکن میکند و کدی را برای اصلاح آنها پیشنهاد میکند.
AWS یک چالش بهرهوری را اجرا کرد. شرکتکنندگانی که از Amazon CodeWhisperer استفاده میکردند، 27 درصد بیشتر از افرادی که از آن استفاده نمیکردند، کارها را با موفقیت انجام دادند و این کار را به طور متوسط 57 درصد سریعتر انجام دادند. در بسیاری از این موارد، هنوز یک “انسان در حلقه” وجود دارد (عاملی که در اینجا توضیح داده شده است) که ممکن است یک عامل پشتیبانی مشتری، دانشمند داده یا توسعه دهنده و غیره باشد که پاسخ را بررسی میکند.
مدل فونداسیون و سپس تصمیم گیری درمورد نحوه استفاده از آن. این عمل خود نسل است، که قلب هوش مصنوعی مولد است و کمک بزرگی در زمان تکرار و در نهایت کارایی برای کارگران بسیاری از سازمانها است.
اما سوالاتی وجود دارد که باید پرسید. با توجه به گستردگی داده های باز مورد استفاده در هوش مصنوعی مولد و این واقعیت که مدل های زبان بزرگ (LLM) اساسا برای یادگیری به جریان های باز اطلاعات متکی هستند، چگونه AWS موضع خود را در مورد حلقه ایمن و نرده های محافظ مورد نیاز برای محافظت از داده های سازمانی حیاتی در این موارد و سناریوها قرار میدهد؟
Tomsen Bukovec میگوید: «ما سالها سرویس ابری را برای شرکت ایجاد کردهایم و همان رویکرد امنیتی را برای استفاده از هوش مصنوعی مولد اتخاذ میکنیم. هنگامی که Amazon CodeWhisperer و Amazon Bedrock را برای ایجاد پاسخهای مرتبط و مختص شرکت سفارشی میکنید، پایگاههای کد و دادههای مشتریان کاملاً خصوصی هستند و مدلهای زیربنایی را آموزش نمیدهند و از مالکیت معنوی ارزشمند آنها (IP) محافظت میکنند.
مشتریان به سادگی Amazon Bedrock را به چند نمونه برچسبگذاری شده در Amazon S3 اشاره میکنند و این سرویس میتواند مدل را برای یک کار خاص بدون نیاز به مرور حجم زیادی از داده تنظیم کند که بسیار زمانبر است.
هیچ یک از داده های مشتری برای آموزش مدل های پایه اصلی استفاده نمی شود. سازمانها میتوانند تنظیمات Virtual Private Cloud را برای دسترسی به API های Amazon Bedrock پیکربندی کنند و دادههای تنظیم دقیق مدل را به روشی امن ارائه دهند و همه دادهها رمزگذاری شده باشند. این حتی در مورد راه اندازی بتا Bedrock نیز صادق بود. ما امنیت را در خدمات خود از ابتدا ایجاد می کنیم.»
از نظر فنی، شایان ذکر است که در مورد کاربران AWS، دادهها از قبل با استفاده از کنترلهای AWS ایمن شدهاند، بنابراین افسران ارشد امنیت (CSOs) مجبور نیستند یک مدل امنیتی جدید برای برنامههای هوش مصنوعی مولد ارائه کنند.
منبع: Forbes