راه اندازي يك سرور مجازي لينوكس

راه اندازي يك سرور مجازي لينوكس

همزمان با رشد سريع اينترنت و خدمات آنلاين، هر روز بر حجم پردازش سرويس دهنده ها و تعداد درخواست هاي كاربران افزوده مي شود. اما حداكثر توان كاري هر سرويس دهنده اندازه اي دارد كه بيشتر از آن نمي تواند به در خواست ها جواب دهد و به صورت معمول سرويس دهي كند. براي خروج از اين وضعيت يك مدير سرويس دهنده، چندين راه حل دارد: جايگزيني سرورهايي با قدرت پردازش بيشتر و

يا افزايش تعداد سرويس دهنده هاي موجود. اما اين كار شايد هزينه بسيار زيادي را به سيستم تحميل كند. به طوري كه عملا اجراي آن غيرممكن خواهد بود. در اين شرايط ، شايد برپا سازي يك سرويس دهنده مجازي بر پايه مفاهيم كلاستر و تقسيم سرويس ها ميان چندين سرويس دهنده، يكي از مؤثرترين راهكارهايي باشد كه مي توان براي افزايش قدرت سرويس دهنده به كاربست. كلاستر سازي اين قابليت را فراهم مي كند كه با افزودن يك سرور مجازي به سيستم ، در خواست هاي سرويس ميان چند سرويس دهنده تقسيم شود و از وارد آمدن فشار اضافي بريك سرويس دهنده و نهايتا مختل شدن سرويس دهي شبكه جلوگيري به عمل آيد. در اين نوشتار، به برپاسازي و پيكربندي يك سرور مجازي لينوكس در يك شبكه، كه شامل چندين سرويس دهنده مختلف، مانند سروي دهنده وب، ايميل و FTP است نگاهي مي اندازيم.
مفهوم كلاستر
كلاسترها يكي از جذاب ترين مفاهيمي هستند كه در بحث هاي پردازش موازي و سرويس دهنده مطرح مي شوند. به طور عام ، مفهوم كلاسترها به يك مجموعه از كامپيوترها اطلاق مي شود كه با اشتراك قدرت پردازشي يكديگر، توان بيشتري را براي انجام دادن امور پردازشي محوله فراهم مي كنند. يك كلاستر شامل چندين ماشين است كه در يك شبكه محلي پرسرعت به هم متصل شده و با استفاده از يك برنامه زمانبندي و هماهنگ سازي ميان ماشين هاي شبكه، امور پردازشي را انجام مي دهند.
گونه اي از اين كلاسترها موسوم به
load-balancing cluster وظيفه موازنه كردن ترافيك شبكه را ميان ماشين هاي شبكه بر عهده دارند. هدف اين نوشتار نيز پياده سازي چنين كلاستري است كه بتواند با تقسيم كردن درخواست هاي سرويس ارسالي از كاربران يك شبكه ميان چند سرويس دهنده ، از تراكم حجم كاري بر روي يك سرويس دهنده بكاهد.
طرح ريزي كلاستر
كلاستر شامل يك سرور مجازي مبتني بر سيستم عامل لينوكس و تعدادي سرور فيزيكي خواهد بود كه با استفاده از يك سوئيچ ، با هم در ارتباط هستند . هدف شبكه، ارائه سرويس هايي مانند وب و ايميل به كاربران است. كاربران از طريق يك بستر شبكه اي، مانند اينترنت، با سرور مجازي ارتباط دارند. سرورهاي فيزيكي مي توانند بر هر سيستم عاملي مبتني باشند. وظيفه سرور مجازي لينوكس ، بااستفاده از آدرس هاي
IP، كاهش فشار حجم درخواست هاي ارسالي به يك سرور فيزيكي و تقسيم درخواست ها ميان چند سرور موجود در شبكه است.
در واقع مي توان گفت كه سرور مجازي ، نقش يك رابط را ميان كاربران شبكه و سرورهاي فيزيكي شبكه ايفا مي كند كه در اين ميان، امكان همزماني پردازش هاي بيشتري از درخواست ها با استفاده از يك آدرس
IP فراهم مي شود. هنگامي كه سرور مجازي يك درخواست را از كاربر دريافت مي كند، براساس يك الگوريتم زمانبندي ، درخواست كاربر را به سرور فيزيكي مربوطه تحويل مي دهد. سپس سرور فيزيكي داده هاي مورد تقاضا را براي سرور مجازي به درخواست كاربر جواب خواهد داد. در اين ميان، سرويس دهنده حقيقي همان سرورهاي فيزيكي هستند كه آدرس IP آن ها توسط سرور مجازي تغيير يافته است. سرور مجازي از دو رابط شبكه استفاده مي كند: يك رابط براي برقراري ارتباط با كاربران و دسترسي كاربران به شبكه ، و رابط دوم جهت ارتباط با شبكه محلي و سرورهاي فيزيكي . راه اندازي يك كلاستر با اين ساختار، قابليت هرگونه تغيير، حذف يا افزودن سرورهاي فيزيكي را براي مدير شبكه فراهم مي كند.
بازسازي هسته لينوكس
لينوكس شامل هسته نسخه
۲.۴.۲۸ و نسخه هاي بالاتر، از كلاسترهاي سرور مجازي يا LVS پشتيباني مي كنند. پس اگر از نسخه هاي پايين تر استفاده مي شود، بايد با اضافه كردن ماجول LVS مجددا هسته را كامپايل و بازسازي كنيد. اين بسته به صورت رايگان از نشاني http://www.linuxvirtualserver.org قابل دريافت است . چون در سايت براي نسخه هاي مختلف هسته، بسته هاي مختلفي ارائه شده ، لازم است شماره بسته متناسب با نسخه هسته لينوكس سيستم بررسي شود. بسته دريافتي از سايت را در شاخه usr/src/ كپي كنيد و دستورات زير را اجرا نماييد:

×#cd/usr/scr/linux
#
gunzip ../linux-۲.۴.۲۱-ipvs-۱.۰.۱۰.patch.gz
#
patch-p۱< ../linux-2.4.21-ipvs-1.0.10.patch

دستور خط اول ، موقعيت خط فرمان را به زيرشاخه×linux منتقل مي كند. در خط دوم ، با استفاده از ابزار GUNZIP ، بسته دريافت شده از سايت پروژه از حالت فشرده خارج شده و در خط سوم اين بسته، به هسته اضافه شده است . پس از اضافه شده است. پس از اضافه شدن بسته به هسته، بايد مجددا هسته كامپايل شود. يعني در دايركتوري ×usr/src/linux دستورات زير اجرا شوند:

#make mrproper
#
make oldconfig
#
make menuconfig

با اجراي دستور آخر، يك منو با چندين زيرشاخه اجرا خواهدشد. براي فعال كردن سرور مجازي از شاخه Networking Options، گزينه IP:Virtual Server Configuration را انتخاب نماييد و آدرس سرور مجازي را تنظيم كنيد:

virtual server support( EXPERIMENTAL)
]
Ipvirtual server debugging×[
(
۱۶) IPVS connection table size(the Nith power of۲)
---
IPVS scheduler
round-robin scheduling
<
M >weighted round-robin scheduling
<
M >least-connection scheduling scheduling
<
M >weighted least-connection scheduling
<
M >locality-based least-connection scheduling
<
M >locality-based least-connection with replication scheduling
<
M >destination hashing scheduling
<
M >source hashing scheduling
<
M >shortest expected delay scheduling
<
M >never queue scheduling
IPVS application helper
FTP protocol helper

قبل از خروج از menuconfig، بايد تغييرات ذخيره شوند. براي ساختن تمامي ماجول هاي جديد كرنل، دستور زير اجرا مي شود:

#make dep&&make bzlmage &&make modules && make modulesinstall

پس از اجراي دستور بالا، زير شاخه جديدي به نام bzlmage در دايركتوري /arch/i۳۸۶/boot/×usr/src/linux ساخته مي شود و تصوير هسته كامپايل شده در اين شاخه قرار مي گيرد. براي اتمام پيكربندي هسته، بايد اين تصوير در شاخهboot/ كپي شده و فايل هاي پيكربندي بوت لودرهاي سيستم نيز بروز رساني شوند.
نصب ابزار
IPT و IPVsadm
در گام بعدي ، پس از بازسازي هسته لينوكس، براي پيكربندي سرور مجازي ، بايد بسته هاي
IPTable و IPVsadm نصب شوند. IPTable ابزاري براي راه اندازي ساختار يك فايروال مبتني بر فيلتر بسته هاي IPV۴ و NAT در هسته لينوكس است. بااستفاده از اين ابزار، آدرس هاي IPهاي مجازي براي سرورهاي فيزيكي تعريف مي شوند. IPVsadm نيز يك ابزار براي مديريت سرور مجازي لينوكس، تنظيم الگوريتم زمانبندي تقسيم درخواست ها و قوانين ارسال درخواست هاي كاربران به سرورهاي فيزيكي است. بسته نصب IPTable به همراه اكثر توزيع ها ارائه مي شود و مي توان از طريق برنامه مديريت بسته هاي توزيع لينوكس به راحتي آن را نصب كرد. بسته rpm نصب ابزار IPVsadm نيز از سايت پروژه LVS قابل دريافت است. پس از نصب اين دو ابزار، لازم است كه گزينه IP forwarding براي سرور لينوكس فعال شود. براي اين منظور، فايل etc/sysctl.conf/ را در يك ويرايشگر متني بازكرده و گزينه زير را با ارزش ۱ مقداردهي كنيد:
net.ipv۴.ipforward=۱

اكنون كافي است با استفاده از دستور
start، سرويس IPTable براي ارسال بسته هاي IP سرورهاي فيزيكي به آدرس كاربران شبكه فعال شود:
#
service iptables start
فعال كردن
IP masquerading
براي تنظيم آدرس
IP سرورهاي فيزيكي در سرور مجازي لينوكس، بايد به اين نكته توجه شود كه eth۰ براي كارت شبكه ارتباطي با شبكه اينترنت و eth۱ براي كارت شبكه محلي تعريف شوند. در ادامه برروي سرور مجازي، دستورات زير اجرا شوند:

#iptables-t nat-P POSTROUTING DROP
#
iptables-t nat-A POSTROUTING-o eth۰-j MASQUERDE

در خط اول ، با تعريف يك قانون براي IPTables، يك سطح خارجي امنيتي براي شبكه تعريف مي شود. DROP اين اختيار را به IRTables مي دهد كه هرگونه بسته IP كه از ruleهاي تعريفي تبعيت نمي كند، از شبكه حذف شود و در نتيجه هر آدرس IP جعلي يا ساختگي را نمي توان براي شبكه تنظيم كرد. خط دوم، جدول NAT را براي آدرس دهي شبكه داخلي ميان سرورهاي فيزيكي با سرور مجازي و كارت شبكه eth۰ فعال مي كند.
پيكربندي سرور مجازي لينوكس با
IPVsadm

در گام بعدي، با استفاده از ابزار
IPVsadm سرور مجازي تنظيم مي شود. براي شروع بايد به هريك از ماشين هاي شبكه يك آدرس IP اختصاص داده شود. براي سرورهاي فيزيكي شبكه محلي، يك بازه آدرس دهي مانند ۱۰.۰.۰.۰ تا ۲۵۵.۲۵۵.۲۵۵.۰ انتخاب شده و از يك شماره Subnet Musk استفاده مي شود. از سرور مجازي به عنوان دروازه براي سرورهاي فيزيكي استفاده مي شود. ماشين هاي كلاينت با آدرس هاي IP اختصاص يافته توسط سرويس دهنده اينترنت با سرور مجازي در ارتباط خواهند بود. يكي از دو سرور يك سرويس دهنده HTTP است كه براي آن آدرس ۱۰.۰.۰.۲ تعريف مي شود و سرور دوم كه يك سرويس دهنده FTP است، با ۱۰.۰.۰.۳ آدرس دهي مي شود. آدرس ۱۰.۰.۰.۱ به عنوان پيش فرض دروازه براي ارتباط با سرور مجازي انتخاب مي شود و براي ارتباط سرور مجازي انتخاب مي شود و براي ارتباط سرور مجازي با شبكه اينترنت آدرس IP عمومي ۶۱.۱۶.۱۳۰.۱۰۰ منظور مي گردد. اكنون با ابزار IPVsadm، آدرس هاي تخصيص داده شده براي سرور مجازي تعريف مي شوند:

#ipvsadm-A-t ۱۶۱.۱۶۱۳۰.۱۰۰:۸۰-s wlc
#
ipvsadm-A-۱۶۱.۱۶.۱۳۰.۱۰۰:۲۱-s wrr

در فرامين بالا wlc و wrr دو الگوريتم مديريت ترافيك سرور مجازي براي پورت هاي ۸۰ و ۲۱ هستند. غير از اين دو، الگوريتم هاي زمانبندي قابل تعريف ديگري نيز وجود دارد كه براي آشنايي با آن ها مي توانيد به صفحات man اين برنامه مراجعه كنيد. براي تعريف سرورهاي فيزيكي ، دستورات بالا به صورت زير اجرا مي شوند:

#ipvsadm-a-t ۱۶۱.۱۶۱۳۰.۱۰۰:۸۰-r ۱۰.۰.۰.۳:۸۰-m
#
ipvsadm-a-t ۱۶۱.۱۶.۱۳۰.۱۰۰:۸۰-r ۱۰.۰.۰.۲:۸۰-m-w۲
#
ipvsadm-a-t ۱۶۱.۱۶.۱۳۰.۱۰۰:۲۱-r ۱۰.۰.۰.۳:۲۱-m

البته هميشه ترافيك پورت ۸۰ بيشتر از ترافيك پورت FTP خواهدبود. بدين خاطر آدرس IP شماره ۱۰.۰.۰.۳ براي پورت ۸۰ نيز تعريف شده است. در اين حالت، سرور مجازي با استفاده از الگوريتم هاي زمانبندي خود، مي تواند بار ترافيكي اين پورت را بر روي دو سرور فيزيكي تقسيم كند، با دادن ارزش دو توسط آرگومان m- به آدرس ۱۰.۰.۰۲، سرور مجازي خواهد فهميد كه اين پورت بر روي آدرس ديگري نيز تعريف شده است.
نتيجه گيري
براي آزمايش درستي عملكرد شبكه، مي توان با استفاده از ماشين هاي كلاينت، درخواست هايي را براي سرور مجازي فرستاد و نتيجه را مشاهده كرد. اگر به صورت همزمان چندين درخواست را از چند ماشين كلاينت ارسال كنيد، خواهيد ديد برخي درخواست ها به وسيله سرويس دهنده
FTP پردازش شده اند و آدرس IP متفاوتي ميان درخواست هاي رسيده برروي ماشين هاي كلاينت وجود دارد. راه اندازي يك سرور مجازي با مشخصات بالا جوابگوي يك كلاستر با تعداد محدودي سرويس دهنده است. براي شبكه هايي كه از تعداد زيادي سرويس دهنده استفاده مي كنند، به راه اندازي چند سرور مجازي، تنظيمات پيشرفته جدول NAT، و سرويس DNS نياز خواهيد داشت.

منبع : آي آر آي تي ان

 

شركت IBM ماشين محاسبات فني خود را تقويت مي كند

شركت IBM ماشين محاسبات فني خود را تقويت مي كند

شركت IBM توان پردازشگر سرور P5-575 خود را تقويت خواهد كرد، سروري كه محاسبات فني پر قدرت را انجام مي دهد.

به گزارش بخش خبر سايت http://www.IRITN.com ،به نقل از News.com ، در حال حاضر هر يك از سرورهاي P5-575 با هر چيپ Power5 به بازار عرضه مي شود اما فقط يكي از دو موتور پردازشگر اين چيپ ها كه هسته نام دارد فعال است. با اين وجود شركت Big Blue تا انتهاي سال سيستمي با هشت پردازنده دو هسته اي به بازار عرضه خواهد كرد. سيستم هاي دو هسته اي 5/1 گيگاهرتز خواهد بود كه تا اندازه اي كمتر از مدل هاي يك هسته اي با سرعت 1.9 گيگاهرتز است اما كارايي كلي سيستم دو هسته اي تا 55 درصد افزايش خواهد يافت. بيشتر سرورهاي يونيكس كنوني شركت IBM از مدل دو هسته اي استفاده مي كنند. شركت IBM همزمان با كنفرانس 2005 بين المللي ابر كامپيوتر در آلمان اين سيستم ها را معرفي كرد. IBM براي كسب مقام اول در بازار محاسبات فني سخت تلاش مي كند. در اين بازار از تمامي امكانات از ماشين هاي قدرتمند گرفته تا كلاسترهاي وسيع متشكل از صدها ماشين كوچكتر براي انجام كارهايي چون شبيه سازي تصادفات خودرويي يا تحقيقات دارويي استفاده مي شود. رقباي IBM در اين بازار شركت هايي مثل HP ( رقيب درجه يك)، Cray ، سيليكون گرافيك، Dell و سان ميكروسيستم هستند. از سرور P5-575 در قالب بندي استاندارد كلاستر يعني Cluster 1600 به همراه 128 سيستم 12 اينچي ديگر استفاده مي شود.

 

انباره‌ای به نام NAS شبکه‌ای به نام SAN

انباره‌ای به نام NAS شبکه‌ای به نام SAN

اشاره :
هنگامی كه اولین سیستم‌های كامپیوتری به صورت PC عرضه شدند و روی میز من و شما قرار گرفتند، كمتر كسی می‌توانست پیش‌بینی كند سیلاب اطلاعات با چنین حجم عظیمی شركت‌ها و حتی مردم دنیا را در نوردد. این دستگاه‌ها به انباره‌های ذخیره‌سازی كم‌ظرفیتی (نسبت به استانداردهای امروز) مجهز بودند، اما دپارتمان‌های IT خیلی زود توانستند با استفاده از سرورهای عمومی و انباره‌های اتصال مستقیم (كه از طریق یك اینترفیس پرسرعت SCSI به كامپیوتر متصل می‌شدند) پاسخگوی نیازهای اطلاعاتی آن زمان باشند. Storage Networking
امروزه این شیوه مقدماتی ذخیره‌سازی و پردازش، كمتر مورد استفاده قرار می‌گیرد و شركت‌ها مجبورند برای ذخیره‌سازی حجم عظیم اطلاعاتی كه در سیستم‌هایی چون MIS ، ERP یا data warehousing تولید و جابه‌جا می‌شوند روش‌های تازه‌تری را برگزینند. خوشبختانه، به خاطر وجود اینترنت، جریان عظیم اطلاعات نه تنها ادامه دارد، بلكه شدیدتر از گذشته شده است. امروزه تولید، انتقال، ذخیره‌سازی و تحویل اطلاعات به هر كجا و در هر كجای جهان در عرض چند ثانیه صورت می‌گیرد و وابستگی مردم به اطلاعات بیشتر شده است به طوری كه برای مشتریان یك شركت (چه داخلی و چه خارجی) یافتن اطلاعاتِ مربوط به شركت با سرعت پایین تحمل‌پذیر نیست.
شركت‌هایی كه هنوز سرویس‌های اطلاع‌رسانی اینترنتی خود را راه‌اندازی نكرده‌اند، خلاء آن را به خوبی احساس می‌كنند. همین موضوع شركت‌های نرم‌افزاری و مراكز خدمات‌رسانی اینترنت (و به ویژه سازمان‌های دات كام) را نیز به تكاپو واداشته تا راه‌حل‌های قابل بسط و مطمئن‌تری را ارائه دهند. به طور كلی، شركت‌های تجاری ضرورت داشتن یك انباره ذخیره‌سازی مطمئن را برای نگهداری و ارائه اطلاعات احساس می‌كنند، اما در عین حال دوست ندارند برای این منظور مجبور به استخدام كارشناسان IT بشوند، كه هم كمیاب هستند و هم حقوق بالایی دارند. برای این شركت‌ها شاید بهترین راه‌حل استفاده از Network-Attached Storage یا همان NAS باشد، كه موضوع مقاله ما است.

NAS چیست؟
انباره (Storage) ذخیره‌سازی متصل به شبكه (NAS) دستگاهی است كه به صورت اشتراكی در شبكه مورد استفاده قرار می‌گیرد. این دستگاه، با استفاده از NFS (سیستم فایلی شبكه‌ای مختص محیط‌های یونیكسی)، CIFS (سیستم فایلی شبكه‌ای مختص محیط‌های ویندوزی)،FTP ،HTTP و سایر پروتكل‌ها با اجزای شبكه ارتباط برقرار می‌كند. وجود NAS در یك شبكه برای كاربران آن شبكه افزایش كارایی و استقلال از سكو را به ارمغان می‌آورد، گویی كه این انباره مستقیماً به كامپیوتر خودشان متصل است.

خود دستگاه NAS یك وسیله پرسرعت، كارآمد، تك‌منظوره و اختصاصی است كه در قالب یك ماشین یا جعبه عرضه می‌شود. این دستگاه طوری طراحی شده كه به تنهایی كار كند و نیازهای خاص ذخیره‌سازی سازمان را با استفاده از سیستم عامل و سخت‌افزار و نرم‌افزار خود در بهترین حالت برآورده سازد. NAS را می‌توان مثل یك
دستگاه plug-and-play در نظر گرفت كه وظیفه آن تأمین نیازمندی‌های ذخیره‌سازی است. این سیستم‌ها با هدف پاسخگویی به نیازهای خاص در كوتاه‌ترین زمان ممكن (به صورت بلادرنگ) طراحی شده‌اند. ماشین NAS برای به كارگیری در شبكه‌هایی مناسب‌تر است كه انواع مختلف سرور و كلاینت در آنها وجود دارند و وظایفی چون پراكسی، فایروال، رسانه جریانی و از این قبیل را انجام می‌دهند.

در این مقاله به معرفی دسته‌ای از دستگاه‌های NAS می‌پردازیم به نام <فایلر> كه امكان به اشتراك گذاشتن فایل‌ها و داده‌ها را میان انواع متفاوت كلاینت‌ها فراهم می‌سازند. در عین حال، مزایای NAS در مقایسه با SAN (شبكه‌های موسوم به Storage Area Network) مورد بررسی قرار خواهد گرفت.

Filer چیست؟
دستگاه‌های NAS موسوم به فایلر تمام توان پردازشی خود را صرفاً روی خدمات فایلی و ذخیره‌سازی فایل متمركز می‌كنند. در واقع فایلر به عنوان یك وسیله ذخیره‌سازی، نقش یك فایل سرور اختصاصی را ایفا می‌كند. فایلر مستقیماً به شبكه (معمولاً LAN) متصل می‌شود تا دسترسی به داده‌ها را در سطح فایل فراهم سازد. نصب، راه‌اندازی و مدیریت آسان فایلر، و همچنین مستقل از سكو بودن آن، باعث شده تا هزینه‌های مدیریتی كاهش چشمگیری پیدا كنند.

فایلرهای NAS می‌توانند در هر جایی از شبكه مستقر شوند، بنابراین مدیر شبكه آزادی كامل دارد كه آنها را در نزدیكی محلی قرار دهد كه نیاز به خدمات ذخیره‌سازی دارد. یكی از فواید اصلی استفاده از فایلر آزاد شدن سرورهای همه منظوره و گران قیمت سازمان از انجام عملیات مدیریت فایل است. سرورهای همه منظوره غالباً درگیر عملیاتی می‌شوند كه CPU را زیاد به كار می‌كشند و بنابراین نمی‌توانند به خوبیِ فایلر از عهده عملیات مدیریت فایل برآیند.

تحلیلگران پیش‌بینی می‌كنند نیازِ به ظرفیت ذخیره‌سازی طی سال آینده ده برابر نسبت به گذشته افزایش پیدا كند و به همین دلیل به مدیران IT استفاده از NAS را توصیه می‌كنند. برای هر سازمانی كه در حال استفاده از فایل سرور‌های همه منظوره هستند (یا قصد استفاده از آنها را دارند) بهترین راه‌حل این است كه سیستم‌های NAS را جایگزین سرورهای خود بكنند.

NAS در مقابل SAN
NAS سرنام عبارت NetworkAttached Storage است در حالی كه SAN مخفف Storage Area Network می‌باشد. این دو تكنولوژی شباهت‌های بسیاری به یكدیگر دارند، مثلاً این كه هر دو بهترین حالت یكپارچگی (consolidation) را تأمین می‌كنند، هر دو به محل ذخیره‌سازی داده‌ها مركزیت می‌بخشند، و هر دو دسترسی به فایل را در كارآمدترین حالت فراهم می‌سازند. قابلیت به اشتراك گذاشتن انباره ذخیره‌سازی میان چند میزبان، حمایت از سیستم عامل‌های مختلف، و تفكیك محل ذخیره‌سازی از محل اجرای برنامه‌ها از دیگر مشتركات این دو تكنولوژی است. علاوه بر این، هر دو آن‌ها می‌توانند با استفاده از RAID و اجزای یدكی، آمادگی و یكپارچگی داده‌ها را تضمین كنند.

اما تفاوت این دو تكنولوژی اصولاً در نحوه اتصال آنها به شبكه است. NAS محصولی مشخص و شناخته شده است كه بین application server و file system می‌نشیند (شكل ۱)، در حالی كه SAN یك معماری است كه بر روی سیستم فایلی و ابزارهای فیزیكی ذخیره‌سازی اعمال می‌شود. (شكل۲ ) SAN در واقع خودش یك شبكه است، شبكه‌ای كه تمام مخازن ذخیره‌سازی و سرورها را به هم متصل می‌كند. بنابراین، هر یك از این دو فناوری، برای تأمین نیازهای ذخیره‌سازی بخش‌های متفاوت از یك سازمان مورد استفاده قرار می‌گیرد.

NAS برای كاربران شبكه
NAS یك وسیله شبكه‌ محور است و عموماً به خاطر یكسان‌سازی محل ذخیره‌سازی داده‌های كاربران در
شبكه LAN مورد استفاده قرار می‌گیرد. NAS یك راه‌حل مناسب ذخیره‌سازی است كه دسترسی سریع و مستقیم كاربران به سیستم فایلی را فراهم می‌سازد. استفاده از NAS مشكل معطلی‌هایی را بر طرف می‌سازد كه غالباً كاربران برای دسترسی به فایل‌های موجود در سرورهای همه منظوره با آن مواجه هستند.

NAS ضمن تأمین امنیت لازم، تمام خدمات فایلی و ذخیره‌سازی را از طریق پروتكل‌های استاندارد شبكه‌ای فراهم می‌سازد: TCP/IP برای انتقال داده‌ها، Ethernet و Giga Ethernet برای دسترسی میانی، و CIFS ،http، و NFS برای دسترسی به فایل از راه دور. علاوه بر این، با NAS می‌توان به طور همزمان به كاربران یونیكس و ویندوز سرویس داد و اطلاعات را بین معماری‌های متفاوت به اشتراك گذاشت. از نظر كاربران شبكه، NAS وسیله‌ای است كه دسترسی به فایل را بدون مزاحمت و ایجاد اختلال برای آن‌ها مهیا می‌سازد.

اگر چه NAS تا حدودی كارایی را فدای مدیریت‌پذیری و سادگی می‌كند، اما به هیچ وجه نمی‌توان آن را یك فناوری كه در ذات خود تأخیر دارد، پنداشت. NAS به كمك گیگابیت اترنت به كارایی بالا و تأخیر كوتاه دست یافته و هزاران كاربران را از طریق فقط یك اینترفیس سرویس می‌دهد. بسیاری از سیستم‌های NAS دارای چند اینترفیس هستند و می‌توانند همزمان به چند شبكه متصل شوند. با رشد شبكه و نیاز بیشتر به سرعت بالا، NAS بهترین انتخاب برای پاسخ‌گویی به برنامه‌هایی خواهد شد كه به كارایی بالایی احتیاج دارند.

SAN برای اتاق سرورها
SAN دیتا محور است. شبكه‌ای است كه برای ذخیره‌سازی داده‌ها اختصاص داده شده است. SAN برخلاف NAS، جدای از LAN مرسوم است. بنابراین، SAN می‌تواند از ایجاد ترافیك‌های استاندارد شبكه، به عنوان یك عامل بازدارنده سرعت، جلوگیری كند. SANهای مبتنی برFiber Channel، با بهره‌گیری از مزایایی كانال‌های I/O در یك شبكه اختصاصی جداگانه، سرعت را بهتر و تأخیر را كمتر می‌كنند.

SAN با استفاده از روتر، سوییچ و gateway، انتقال داده‌ها بین محیط‌های ناهمگن ذخیره‌سازی و سروری را سهولت می‌بخشد. از همین رو، ایجاد یك شبكه ذخیره‌سازی نسبتاً دور (در حد ۱۰ كیلومتر) با SAN امكان‌پذیر است.

معماری SAN برای انتقال داده‌های بلوكی در بهترین حالت است. در اتاق كامپیوترها، SAN غالباً بهترین انتخاب برای بررسی مسائل پهنای باند، دسترسی به داده‌ها، و یكپارچه‌سازی است.

با توجه به تفاوت‌های بنیادینی كه بین تكنولوژی و اهداف SAN و NAS وجود دارد، برای انتخاب هر یك باید تصمیم اساسی گرفته شود. هر یك از این دو را می‌توان برای رفع نیازهای ذخیره‌سازی مورد استفاده قرار داد. البته در آینده ممكن است مرز بین دو تكنولوژی آن چنان روشن نباشد و در یك مجموعه از هر دو روش استفاده شود.
راه‌حل‌های NAS برای نیازهای امروز شركت‌ها
نیازهای شركت‌های ISP ،ASP و دات‌كام به سیستم‌های قابل اطمینان، كم‌هزینه، و قابل نصب در رك به گسترش راه‌حل‌های NAS كمك خواهد كرد. كاهش هزینه‌های كادر IT شركت‌ها نیز از دیگر دلایل مقبولیت این راه‌حل‌ها خواهد بود. از دید كاربر، این كه دسترسی به انبوه اطلاعات به صورت بلادرنگ امكان‌پذیر است، چیز خوشایندی است، و در سمت مدیریت، عدم نیاز به نیروی متخصص IT. مدیریت NAS از طریق یك رابط گرافیكی در مرورگر وب امكان‌پذیر است.

از آن‌جا كه فایلر NAS از قبل برای تأمین نیازهای ذخیره‌سازی تنظیم شده است، اداره آن كار ساده‌ای است، و همین امر موجب كاهش خطاهایی می‌شود كه هنگام دستكاری و تنظیم سیستم‌ها پیش می‌آیند. به علاوه، از آنجا كه با NAS ظرفیت بیشتری را (نسبت به سرورهای همه منظوره) به ازاء هر مدیر می‌توان اداره كرد، هزینه كل مالكیت (TCO) نیز كاهش می‌یابد.

توسعه سریع، بدون توقف سرویس
شركت‌های دات‌كام و سایر شركت‌های رو به رشد، همواره در تلاشند تا زیرساخت‌های IT خود را با فعالیت‌های پویای كسب و كار خود همگام نگه دارند. اتكا به سرور یا سرورهای عمومی در بعضی فعالیت‌های شركت، شاید ضروری باشد، اما نباید این سرورها را با نیازهای رو به افزون ذخیره‌سازی تحت فشار گذاشت. با اضافه كردن ظرفیت ذخیره‌سازی در سرورهای عمومی، قطعاً با توقف سرویس (downtime) مواجه خواهید شد. وقتی سیستمی را خاموش می‌كنید تا ظرفیت ذخیره‌سازی آن را افزایش دهید، برنامه‌های كاربردی شما از كار می‌افتند و این یعنی كاهش بهره‌وری.

از سوی دیگر، افزایش ظرفیت ذخیره‌سازی با NAS نه تنها ساده است، بلكه بدون ایجاد اختلال در شبكه انجام می‌شود. طی ۱۵ دقیقه می‌توانید یك فایلر جدید به مجموعه اضافه كنید بدون این كه مزاحم كار دیگران بشوید. بیشتر سیستم‌های پیشرفته NAS می‌توانند <درجا> ظرفیت ذخیره‌سازی را افزایش دهند و نیازی به اضافه كردن node جدید به شبكه ندارند. این بدان معنی است كه كاربران به محض نیاز به ظرفیت ذخیره‌سازی بیشتر، به آن دست خواهند یافت.

رها شدن سرور
با استفاده از فایلر NAS، سرورهای شما از انجام عملیات پرمصرف و زمان‌بر فایلینیگ خلاص شده و بدین ترتیب، می‌توانند با توان بیشتر به پردازش داده‌ها بپردازند. اگر سرور عمومی خود را برای انجام عملیات فایلینگ (علاوه بر اعمال دیگر) اختصاص داده باشید، خواهید دید كه فشار زیادی روی آن وارد می‌آید، به طوری كه عملاً از انجام سایر وظایف خود (مثل ارسال و دریافت email یا اداره برنامه‌ها) باز می‌ماند.

اشتراك داده‌ها و اتصال Multi-OS
شركت‌های رو به توسعه یا شركت‌هایی كه در پی ادغام با شركت‌های دیگر هستند، بدون شك با وضعیت ناهمگن بودن محیط‌ها و سیستم عامل‌ها مواجه خواهند شد. در چنین شرایطی، سیستم NAS می‌تواند پاسخگوی این چالش باشد، چرا كه توانایی كار با دو سیستم اصلی NFS و CIFS را دارد. یكی از توانایی‌های غیر قابل
انكار NAS حمایت آن از این پروتكل‌ها و قابلیت به اشتراك‌گذاری داده‌ها بین سكوهای مختلف است. با توجه به این كه روز به روز استفاده شركت‌ها از فایل‌های حجیم در برنامه‌ها (نظیر فایل‌های صوتی-تصویری) بیشتر می‌شود، این ویژگی NAS اهمیت فوق‌العاده‌ای دارد.

بهبود زیرساخت‌های موجود
با افزودن NAS به شبكه، دانش و مهارت مدیریتی خود را بالاتر برده و به ارتقا شبكه كمك می‌كنید. به كار بستن NAS در هر كجا از شبكه كه نیاز آن احساس می‌شود امكان‌پذیر است. NAS را می‌توان با ابزارهای مدیریتی بزرگ‌تری چون Microsoft Management Consol ،Tivoli و HP OpenView نیز تلفیق كرد. و دیگر این كه NAS نیازی به مجوزهای پرهزینه سیستم عامل شبكه (NOS) ندارد.

کپی رایت و منابع
 

تکنولوژی بکار رفته در cpu های دو هسته ای

تکنولوژی بکار رفته در cpu های دو هسته ای

در چندین ماه گذشته پیشرفت های جدیدی در طراحی پروسسورها، بویژه از طرف شرکت AMD حاصل شد. این شرکت علاوه بر اینکه یک cpu با طراحی کاملا ْ۶۴ بیتی عرضه کرد که باعث برتری یافتن این شرکت در بازار کامپیوترهای رومیزی پیشرفته گردید، همچنین در حذف کنترل کننده‌های حافظه (MCH) پیشقدم شد که در عملکرد Athlon ۶۴ و چیپهای optron یک پیشرفت قابل ملاحظه نسبت به پروسسورهای intel به حساب می‌آید. اینتل به طور متقابل پروسسور سازگار ۶۴ بیتی را عرضه نمود. به تازگی نیز هر دو شرکت پردازشگرهای دوهسته ای را عرضه نموده‌اند، این پروسسورها بهتر از آن چیزی که شما انتظار دارید کار می‌کنند. پروسسورهای اینتل و AMD هر دو دارای دو هسته پروسسور، در حال کار در یک قالب می‌باشند که هر یک از هسته‌ها بصورت مستقل توابع و پردازشهای داده را انجام می‌دهند (در مورد اینتل این مورد کامل تر است) و هر دو این هسته‌ها توسط نرم افزار سیستم عامل هم آهنگ می گردند.
در این مقاله سعی شده تا تکنولوژی که در این دو محصول استفاده شده و مقدار افزایش کارایی که شما می توانید از آنها انتظار داشته باشید بررسی گردد. در حال حاضر AMD فقط پروسورهای کلاس سرور opteron با دو هسته را بطور کامل به بازار عرضه کرده و بزودی Athlon ۶۴*۲ برای کامپیوترهای رومیزی را نیز به بازار عرضه می‌کند. در طرف مقابل اینتل در حال حاضر پنتیوم Extreme Edition ۸۴۰ رومیزی با دو هسته را به بازار عرضه نموده در حالی که خطهای تولید Pentium D و dual xeons هنوز متوقف نشده اند.
با توجه به اینکه پروسسورهای دو هسته‌ای در اصل یک سیستم چند پروسسوره که در یک قالب قرار گرفته اند، می باشد. اجازه بدهید اینک چندین تکنولوژی که در سیستم های چند پردازشگر استفاده می شود را مورد بررسی قرار دهیم.

چند پردازشگرهای متقارن ( SMP (symmetric Multi processing
SMP روش مشترکی می باشد که چندین پردازشگر بطور جداگانه با یکدیگر در یک مادربرد کار می‌کنند. سیستم عامل با هر دو cpu تقریباً بطور یکسان کار می‌کند و کارهای مورد نیاز را به آنها ارجاع می‌دهد. چیپ‌های دوهسته ای جدید intel و AMD توانایی SMP را بصورت داخلی مورد توجه قرار داده‌اند. پروسسورهای سرور opteron دوهسته ای می‌تواند همچنین بصورت خارجی با دیگر چیپ‌های دوهسته ای ارتباط برقرار کند. (بشرط آنکه چیپ متقابل نیز دارای این خاصیت باشد)
محدودیت اصلیSMP در پشتیبانی سیستم عاملها و نرم افزارها از این تکنولوژی می‌باشد. خیلی از سیستم عاملها (مانند ویندوز XP سری خانگی ) توانایی پشتیبانی از SMP را ندارند و از دومین پردازشگر استفاده نمی‌کنند. همچنین بیشتر برنامه‌های پیشرفته بصورت تک رشته ای کار می‌کنند، در اصل در هر زمان فقط یک پردازشگر در حالت فعال می باشد. برنامه های چند رشته‌ای از پتانسیل موجود در سیستم‌های دو یا چند پرازشگر، می‌توانند نتایج مفیدتری بگیرند، ولی به صورت کامل عمومیت ندارد.
در گذشته intel و AMD سعی داشته‌اند تا تکنولوژی جدیدی مثل SMD را بیشتر برای پردازشگرهای سرور پیشرفته مانند opteron و Xeon استفاده نمایند ( البته تا قبل از پنتیوم ۳ )

Hyperthreading
این تکنولوژی بصورت اختصاصی توسط اینتل در پردازشگرهای چند هسته‌ای بکار گرفته شده است. این تکنولوژی قبلاً نیز توسط این شرکت بکار گرفته ‌شده‌ بود. اینتل برای آنکه از منابع CPUبنحو بهتری استفاده نماید فقط قسمتهایی که کار پردازش اطلاعات را انجام می دهد را تکثیر کرده است. یعنی آنکه منابع داده در داخل CPU بصورت مشترک استفاده می‌شد. ایده hyperthreading برای دو برابرکردن مقدار فعالیت چیپ می‌باشد تا آنکه کاهش عملکرد سیستم که در اثر فقدان حافظه Cash روی می‌دهد کمتر گردد همچنین بصورت تئوری نشان داده شده که منابع سیستم کمتر تلف می‌‌گردند.
در صورتی که CPU های hyperthreading مانند دو پروسسور حقیقی بنظر می رسد. ولی این CPU ها نمی‌توانند عملکردی مشابه دو CPU مجزا مانند CPU های دوهسته ای داشته باشند. زیرا در CPU های دو هسته ای دو “Threads”مشابه بطور همزمان و با Cash ‌های جداگانه L۱ و L۲ می‌توانند اجرا گردند که این عمل در پردازشگرهای hyperthreading قابل انجام نمی‌باشد.
یکی از چیپهای جدید اینتل بنام ، پردازشگر پنتیوم Extreme Edition ۸۴۰ ، در داخل هر هسته خود از تکنولوژی hyperthreading نیز پشتیبانی می‌کند، یعنی آنکه در یک سیستم عامل آن بصورت چهار پردازشگر حقیقی دیده می‌شود.

دو چیپ در یک قالب … چرا؟
چرا دو شرکت اینتل و AMD بطور ناگهانی شروع به توزیع پردازشگرهای دو هسته‌ای کردند؟
اول از همه رقابت چنانچه بعداً بیان خواهیم کرد AMD از ابتدا توانائی بالقوه دوهسته‌ای را در پردازشگرهای ۶۴ بیتی خود داشت. ساختمان ورودی و خروجی برای دومین هسته در CPU های فعلی ۶۴ بیتی AMD موجود می‌باشد.
هیچ شرکتی نمی تواند دیگران را از بدست آوردن تکنولوژی‌های جدید منع نماید و AMD در حال حاضر با موفقیت چشمگیر خط تولید پرداشگرهای ۶۴ بیتی آسودگی را از intel سلب نموده ‌است.
برای اینتل ضروری می‌باشد که دارای یک تولید تخصصی در تکنولوژی دوهسته ای ‌باشد تا رقابت با شرکاء تجاری خود را حفظ نماید.
دوم، کارایی می‌باشد. مطمئناً برنامه‌های کاربردی چند رشته‌ای در پردازشگرهایی که توانایی انجام چند پردازش را دارند در پردازشگرهایی که یک پردازش را در هر زمان انجام می‌دهند، بهتر عمل خواهند نمود.
البته برای سیستم های چند پردازشگره یک ایراد عمومی وجود دارد و آن تاْخیری می‌باشد که این CPU ها در اجرای کار سیستم بوجود می آورند. به بیان ساده در حال حاضر روشی برای سیستم عامل‌های موجود وجود ندارند تا پردازشها را بطور کاملاً مساوی در بین پردازشگرها تقسیم نماید، پردازشگر دوم عموماً بایک مداخله کمتر و کارایی پایین‌تر کارمی‌کند، در صورتی که ممکن است پردازشگر اول بصورت ۱۰۰% در حال پردازش ‌باشد.
سومین دلیل کمتر نمایان است، ناامیدی AMD و اینتل می‌باشد، هر دو شرکت با یک مانع جدی برای افزایش سرعت پردازشگرها و کوچکتر کردن اندازه قالب آنها روبرو شده اند تا این مانع حذف نشود و یا اینکه تا کاربران عمومی متوجه نشوند که GHZ به تنهایی کارایی را بیان نمی‌کند. هر دو شرکت برای دست یافتن به هر پیشرفت که کارایی پردازشگرها را بهبود بخشید تلاش خواهند نمود و تقریباً دلیل اصلی بوجود آمدن پردازشگرهای دو هسته ای را می‌توان همین دلیل سوم بیان نمود.

دسترسی AMD به تکنولوژی دو هسته ای

فرم فاکتور فعلی پردازشگر ۶۴ اتلن به طراحی دو هسته ای خیلی نزدیک می‌باشد. وجود کنترل کننده‌های Hypertransport و کنترل کننده حافظه درقالب چیپهای فعلی ۶۴ اتلن به معنی آنست که اضافه نمودن دومین هسته در داخل چیپ چندان مشکل نمی‌باشد.
بدلیل رابط NorthBridge که AMD برای اتلن ۶۴ تهیه کرده‌ است کنترل کننده حافظه و رابط Hypertransport در داخل چیپ پشتیبانی می گردد. این به چیپ‌های دوهسته‌ای امکان می دهد که از داخل خود پردازشگر با یکدیگر ارتباط برقرار کنند.

تعداد ترانزیستورهای پردازشگرهای اتلن ۶۴*۲ بیش از دو برابر پردازشگرهای اتلن ۶۴ می‌باشد. با توجه به اینکه در ساختن CPU های جدید از روش ۹۰nm استفاده می شود سایز کل چیپ کمی افزایش پیدا کرده و ولتاژ عملکرد ۱.۳۵ تا ۱.۴ می‌باشد و گرمای خروجی به بیش از ۱۱۰w کمی افزایش می‌یابد.
هر هسته پردازشگر حافظه Cash L۱ و L۲ مخصوص به خود را دارد، ۱۲۸ KB برای L۱ و بسته به مدل ۵۱۲ KB تا ۱ MB برای L۲.

دو برتری مهمی که AMD در CPU های دو هسته‌ای دارد عبارتند از اینکه :
“Crossbar Switch” که آدرسها را جمع‌آوری کرده و توزیع می کند و داده را از هر هسته به هسته دیگر یا باقی سیستم توزیع می کند در حال حاضر امکان اضافه شدن دومین هسته را دارد.
موفقیت دیگر AMD که از نظر مصرف کننده خیلی مهم می‌باشد امکان استفاده اتلن ۶۴*۲ از مادربردهای سوکت ۹۳۹/۹۴۰ می باشد و فقط لازم است که شرکت تولید کننده مادربرد BIOS را برای پشتیبانی از خصوصیات جدید به روز رسانی نماید.

دسترسی اینتل به پردازشگر دو هسته ای
با توجه به اینکه اینتل مانند AMD دارای مدل قبلی برای اضافه کردن هسته جدید در داخل یک قالب CPU نبود، برای ساخت آن مدل جدیدی را طراحی نمود که البته دارای نواقصی نسبت به مدل AMD می‌باشد.
پنتیوم D در اصل از دو پردازشگر “پرسکات” پنتیوم D در یک قالب تشکیل شده است ، این پردازنده دارای مزیت داشتن دو حافظه کش L۱ و L۲ برای هر هسته بطور مجزا می‌باشد، ولی دارای نواقصی نیز می باشند از جمله اینکه این دو پرداشگر برای ارتباط برقرار کردن با یکدیگر باید، از NorthBridge و FSB خارج پردازشگر استفاده نمایند. تعداد ترانزستورها برای چیپ های جدید بیش از ۲۳۰ میلیون و گرمای تولید شده به مقدار فوق‌العاده ۱۳۰W برای پنتیوم Extereme Edition می‌رسد.

یکی از بزرگترین معایب طراحی اینتل نسبت به AMD که سوکت‌های ۹۳۹ را برای طراحی پردازشگرهای دو هسته‌ای خود حفظ نمود آن است که راه حل دو هسته‌ای اینتل نیاز به یک جفت چیپ ست جدید بنامهای ۹۵۵X و ۹۴۵P دارد. شرکت nvidia اخیراً ویرایش اینتل SLI که پروسسورهای دو هسته‌ای را پشتیبانی می‌کند را به بازار عرضه کرده ‌است که این مورد هم زمان بیشتری را مصرف و هم هزینه‌ای اضافی برای مصرف کننده در پی دارد.

گرما و پهنای باند :
هر دو پردازشگرهای تک هسته‌ای AMD و Intel گرمای فوق‌العاده زیادی تولید می‌کردند، که هیت سینک‌های فوق‌العاده بزرگی که برای آنها استفاده می ‌شود گویای این مطلب می‌باشد. حال با اضافه کردن یک هسته اضافی چگونه می‌توان این پردازشگرها را خنک نمود.
ولی AMD و Intel از چندین روش برای خنثی کردن این موضوع استفاده کرده‌اند، ابتدا آنکه در ساخت این پردازشگرها از تکنولوژی ۹۰nm استفاده شده که باعث کوچکتر شدن CPU ونزدیکتر شدن قسمتهای مختلف بر روی CPU شده و در نتیجه گرمای تولید شده را به مقدار زیادی کاهش می‌دهد و دوم آنکه فرکانس کاری این CPU ها بمقدار حدود ۴۰۰MHz نسبت به آخرین CPU های تک هسته ای کاهش پیداکرده و همچنین هسته دوم همیشه بصورت کامل کار نمی‌کند این سه مطلب باعث می‌گردد که گرمای تولید شده بمقدار خیلی زیادی نسبت به CPU های تک هسته‌ای افزایش نیابد.
پهنای باند بکار رفته محدودیت بزرگتری برای CPU های دو هسته‌ای می‌باشد، زیرا هر دو AMD و Intel پهنای باند برای CPU های تک هسته‌ای را برای این نوع CPU ها نیز حفظ کرده‌اند و طرحی برای افزایش آن ندارد.

دو پردازشگر تک هسته ای در مقابل یک پردازشگر دو هسته‌ای
محاسبات و بررسی طرحهای موجود نشان می‌دهد که دو چیپ اپترن AMD باید دارای سرعت بالاتری نسبت به یک چیپ دو هسته‌ای باشد، زیرا هر یک از این OPTERON ها دارای یک کنترل کننده حافظه مجزا می‌باشد ولی در چیپ‌های دو هسته‌ای هر دو هسته باید یک کنترل کننده حافظه را بصورت مشترک استفاده کنند.
در مورد اینتل این موضوع مطرح نمی‌باشد زیرا در هر دو طرح یک کنترل کننده حافظه در خارج از CPU استفاده می شود و فقط در طراحی دوهسته ای این مسیرها کوتاه‌تر می‌باشند که چندان پارامتر مطرحی در افزایش سرعت نمی‌باشد.
یکی از بزرگترین مزایای پردازشگرهای دو هسته‌ای نسبت به دو پردازشگر تک هسته‌ای بحث اقتصادی آن می‌باشد، زیرا اولاً خرید یک CPU دو هسته‌ای از دو CPU تک هسته‌ای ارزانتر می‌باشد و از طرف دیگر باید قیمت مادربرد را نیز لحاظ کرد که در این صورت این موضوع بیشتر جلب توجه می‌نماید.

لینک مقاله در تالار های گفتگوی علمی آکادمیست :: دانشجویان

کپی رایت و منابع
 

اوبونتو (ubuntu)

اوبونتو (ubuntu)

اوبونتو یک سیستم عامل کاملاً‌ آزاد و رایگان بر اساس گنو/لینوکس٬ همراه با پشتیبانی در سطح جامعه کاربران و خدمات تجاری و حرفه‌ای است. اوبونتو توسط اجتماع بزرگی از کاربران و توسعه دهندگان در سراسر دنیا توسعه داده میشود و ما از شما نیز دعوت می‌نمائیم تا به این اجتماع بپیوندید!
اجتماع اوبونتو بر اساس ایده‌های فلسفه اوبونتو که می‌گوید: نر‌م‌افزار باید آزاد و رایگان در اختیار عموم باشد٬ همچنین ابزارهای نرم‌افزاری مختلف می‌بایست به صورت سفارشی و به زبان محلی کاربران در اختیارشان باشند و کاربران مجاز باشند نرم‌افزار را بر اساس نیازهای خود سفارشی نموده و استفاده نمایند٬ شکل گرفته است.
ubuntu - اوبونتو
این آزادیها موجب شده‌اند٬ اوبونتو اساساً با نرم افزارهای سنتیﹺ خصوصی متفاوت باشد. نه تنها ابزارها و نرم‌افزارهای مورد نیازتان رایگان هستند٬ بلکه شما مجاز خواهید بود نرم‌افزارها را مطابق نیازتان و بگونه‌ای که مایلید سفارشی نموده و استفاده نمائید.

اوبونتو برای استفاده به عنوان رومیزی و کارگزار (سرور) مناسب است. نسخه فعلی اوبونتو از معماری‌های سخت افزاری مختلف شامل انواع PC های Intel x۸۶ و ۶۴bit و همچنین ماشین‌های UltraSPARC T۱ شرکت SUN و PowerPC شرکت Apple پشتیبانی می‌کند.

اوبونتو دارای بیش از ۱۶۰۰۰ بسته نرم‌افزاری است و هسته اصلی آن بر روی یک سی‌دی عرضه میشود. اوبونتو دارای انواع ابزارهای نرم‌افزاری از نرم‌افزارهای کاتب و صفحه گستردهٔ اداری تا کارگزارهای اینترنتی و ابزارهای مناسب برنامه‌نویسی است.

از جمله مزیت های اوبونتو پشتیبانی قوی از زبان فارسی و همچنین تیم پشتیبانی فارسی اوبونتو می باشد. مستندات کاربردی و بسیار مفید فارسی آن نیز از مزیت های قابل ذکر برای اوبونتو می باشد.

سی دی هما می تواند برای استفاده راحت تر از اوبونتو شما را یاری دهد.

لینک هاubuntu
Ubuntu
اوبونتوی فارسی
اوبونتو نسخه رومیزی
اوبونتو نسخه كارگزار (سرور)

انجمن های فارسی اوبونتو
مستندات
وبکی

منبع

کپی رایت و منابع

 

Data Center چیست؟

Data Center چیست؟

نویسنده : www.academist.ir

خلاصه : تا قبل از دهه ۹۰ استفاده از اینترنت برای مردم عادی به سادگی امکان‌پذیر نبود، چرا که استفاده از امکانات اینترنت نیاز به دانش خاصی داشت. محیط خط فرمانی(Command Line) و ساختار غیر گرافیکی اینترنت سبب شده بود که کاربران عادی علاقه چندانی به استفاده از اینترنت نداشته باشند. در اوایل دهه ۹۰، پس از به وجود آمدن مفهوم وب در اینترنت (سال ۱۹۹۳ ) و پروتکل HTTP که به سادگی امکان به اشتراک گذاشتن مستندات در اینترنت را در اختیار کاربران قرار می‌داد، روز به روز بر تعداد کاربران اینترنت افزوده شد. از سوی دیگر با اضافه شدن کاربران اینترنت، حجم مستندات نیز روز به روز افزایش یافت. مسلماً خطوط سابق اینترنتی و سرورهای موجود، توانایی جوابگویی به خیل عظیم کاربران را نداشتند.

متن کامل :

تا قبل از دهه ۹۰ استفاده از اینترنت برای مردم عادی به سادگی امکان‌پذیر نبود، چرا که استفاده از امکانات اینترنت نیاز به دانش خاصی داشت. محیط خط فرمانی(Command Line) و ساختار غیر گرافیکی اینترنت سبب شده بود که کاربران عادی علاقه چندانی به استفاده از اینترنت نداشته باشند.
در اوایل دهه ۹۰، پس از به وجود آمدن مفهوم وب در اینترنت (سال ۱۹۹۳ ) و پروتکل HTTP که به سادگی امکان به اشتراک گذاشتن مستندات در اینترنت را در اختیار کاربران قرار می‌داد، روز به روز بر تعداد کاربران اینترنت افزوده شد. از سوی دیگر با اضافه شدن کاربران اینترنت، حجم مستندات نیز روز به روز افزایش یافت. مسلماً خطوط سابق اینترنتی و سرورهای موجود، توانایی جوابگویی به خیل عظیم کاربران را نداشتند.
همچنین با زیاد شدن کاربران و بالا رفتن حجم مستندات،
و نیز سادگی انتشار اطلاعات در اینترنت، مفاهیم تجاری نیز وارد عرصه اینترنت شدند. شرکت‌های تجاری نیاز به سرورهایی داشتند که این امکان را به آنها بدهد که به سادگی و با سرعت بتوانند اطلاعات خود را در اختیار مشتریان و کاربران خود قرار دهند.
بالطبع این امکان وجود نداشت که هر شرکت یا سازمانی که قصد راه‌اندازی سایت‌های اینترنتی را دارد، خود راساً اقدام به راه‌اندازی سرور خود کند، چرا که با وجود کاربران زیاد این سایت‌ها و حجم بالای ترافیک، نیاز به اتصال‌هایی با سرعت‌های بسیار بالا وجود داشت که مسلما حتی در صورتی که این امکان از لحاظ عملی وجود داشته باشد، هزینه بالایی را می‌طلبید.
راه‌حلی که برای این مشکل به نظر رسید، راه‌اندازی مراکز خاصی تحت عنوان Data Center یا مراکز داده‌ای بود. Data Center ها با در اختیار داشتن اتصالات پرسرعته‌ای به اینترنت، و همچنین در اختیار داشتن سرورهای قوی و متعدد، امکان راه‌اندازی سرورهای وب را برای عموم مردم ممکن ساختند.
شرکت‌های تجاری و مردم می‌توانستند با اجاره کردن فضای محدودی در این سرورها، سایت‌های وب خود را معرض دید عموم قرار دهند. برخی شرکت‌های بزرگ نیز با توجه به نیاز خود، اقدام به اجاره کردن یک سرور در مرکز داده‌ای می‌کردند و آن را از راه دور با ابزارهای خاص کنترل می‌کردند.
اکنون با توجه به رشد سریع اینترنت، روز به روز به تعداد Data Center ها اضافه می‌شود به طوری که در حال حاضر در اکثر کشورهای پیشرفته این مراکز وجود دارند. تمرکز این مراکز بخصوص در کشور امریکا بسیار زیاد است. دلیل آن ارزان بودن نرخ اتصال به اینترنت و همچنین در دسترس بودن سرعت‌های بالا می‌باشد.
برخی از این Data Center از طریق خطوط مختلف فیبرنوری، پهنای باندی بیش از ۴Gbps را در اختیار دارند و تعداد سرورهای این Data Center معمولا بیش از ۱۰۰۰ است که بر اساس مشخصات به متقاضیان اجاره داده می‌شود.
پارامترهای زیادی در قیمت اجاره ماهانه یک سرور تاثیرگذار
است که می‌توان به سرعت CPU، مقدار حافظه RAM و اندازه Hard Disk ، حداکثر ترافیکی که ماهانه در اختیار هر سرور قرار می‌گیرد، سیستم عامل سرور و همچنین سابقه مرکز داده‌ای بستگی دارد.

مشخصات یک Data Center
Data Centerهای متفاوتی در نقاط دنیا وجود دارد که با توجه به نیاز و همچنین شرایط منطقه‌ای طراحی و ساخته شده‌اند. استاندارد خاصی برای یک Data Center وجود ندارد اما در اینجا سعی شده است به برخی از مشخصات عمومی یک مرکز داده‌ای اشاره شود. در اختیار داشتن اتصالات مختلف به اینترنت از طریق ISP و ICPهای مختلف: به طور معمول یک Data Center برای اتصال به اینترنت از چندین اتصال مختلف استفاده می‌کند تا در صورتی که هر یک از اتصالات به دلیلی از کار افتادند، در سرویس‌دهی مرکز وقفه‌ای پیش نیاید. برخی از Data Center معروف با بیش از ۱۲ اتصال مختلف به اینترنت متصلند.

وجود سیستم قدرت پشتیبان:
یکی از مهم‌ترین مسایل در Data Center سرویس‌دهی بدون وقفه به مشتریان می‌باشد. با توجه به امکان قطع برق به دلایل مختلف همچون حوادث غیرمترقبه یا جنگ، نیاز به سیستم برق پشتیبان ضروری است. معمولاً Data Centerهای بزرگ از UPS های مخصوصی استفاده می‌کنند که امکان سرویسدهی به بیش از ۱۰۰ کامپیوتر را دارند. علاوه بر سیستم UPS، ژنراتورهای قوی نیز در مرکز داده‌ای وجود دارد تا در صورت قطع بلندمدت برق، سرویس‌دهی بدون وقفه انجام شود.

وجود سرورهای متعدد:
هدف اصلی یک Data Center در اختیار گذاشتن سرورهای وب برای مشتریان است. سرورهای مورد استفاده با توجه به نیاز و امکانات Data Center تعیین می‌شود. تنها تفاوت مهم، نوع سرورهای مورد استفاده توسط Data Center است. در Data Center ها از دو نوع سرور استفاده می‌شود: سرورهای Rackmount و یا سرورهای Desktop. با توجه به حجم کم سرورهای Rackmount این امکان برای مرکز داده‌ای فراهم می‌شود که در فضایی کوچک، تعداد زیادی سرور قرار گیرد. اما مسیله مهم در این نوع سرورها، قیمت بالای این سرورها نسبت به سرورهای Desktop است. علاوه بر این امکان ارتقاء سرورهای Rack Mount تنها به مقدار اندک امکان‌پذیر است. با توجه به این موضوع اکثر Data Center از سرورهای Desktop استفاده می‌کنند.

مشخصات فیزیکی:
با توجه به این نکته که اکثر سرورهای وب از نوع Desktop هستند، ساختمان‌های مراکز داده‌ای اکثرا با سقف‌های بلند ساخته می‌شوند که علاوه بر تهویه هوا، امکان قرار دادن سرورهای بیشتر را می‌دهند. همچنین در تمامی Data Centerها، مسیرهایی برای گذراندن کابل‌های شبکه و همچنین کابل‌های برق وجود دارد. علاوه بر اینها، وجود سیستم تهویه قوی برای پایین نگاه داشتن دمای سرورها ضروری می‌باشد. البته مشخصاتی همچون وجود سقف کاذب، کف کاذب و همچنین سیستم اطفاء حریق در برخی موارد توصیه شده است.
مسیله مهم در Data Centerها، امکان استفاده متقاضیان از سرورهای Data Center می‌باشد که در این بخش به آن می‌پردازیم.

نحوه در اختیار گرفتن یک سرور وب:
پس از اینکه متقاضی سرور، با شرایط قراردادی که Data Center مفاد آن را تنظیم کرده موافقت کرد، یک سرور در اختیار وی گذاشته می‌شود. بسته به نوع قرارداد سرور می‌تواند تنها شامل سیستم عامل و یا نرم‌افزارهای کمکی همچون نرم‌افزارهای FTP و یا Control Panel سایت باشد. در صورتی که این نرم‌افزارها بر روی سرور نصب نشده باشد، متقاضی خود باید این نرم‌افزارها را نصب کند. متقاضی اکثرا از طریق Remote terminalها و یا نرم‌افزارهای خاصی مانند PCAnywere سرور خود را از راه دور کنترل می‌کند. پس از نصب و تنظیمات نرم‌افزاری، سرور آماده سرویسدهی می‌شود و بر حسب نیاز متقاضی استفاده می‌شود.
نکته قابل توجه، کنترل سرورها توسط متقاضی از راه دور است. با توجه به این موضوع مسیولیت کلیه مسایل و مشکلات سرور از جمله از کار افتادن سرویس‌ها و نرم‌افزارها و یا حملات هکری به عهده متقاضی می‌باشد.
البته در شرایط خاص و پرداخت مبالغ معین متقاضی می‌تواند از خدمات Data Center استفاده کند.
هرچند در شرایط بحرانی همچون حملات گسترده که منجر به از کار افتادن تمامی سرورها شود، معمولا Data Center برای سرویسدهی به تمامی سرورها به مشکل برخورد می‌کنند که در این صورت طبق اولویت‌های خود اقدام به رفع مشکل می‌کنند.
آیا امکان راه‌اندازی چنین مرکزی در ایران وجود دارد؟ این سوالی است که در بخش بعد به آن می‌پردازم.
ضرورت راه‌اندازی Data Center در ایران
شرکت‌های ایرانی از روش‌های متفاوتی برای راه‌اندازی سایت‌های خود استفاده می‌کنند. برخی از امکانات ISP های داخلی استفاده می‌کنند. این روش علیرغم این که امکان پشتیبانی مناسبی را برای مدیر سایت فراهم می‌کند، اما از سوی دیگر به دلیل پایین بودن پهنای باند ISP های ایرانی و همچنین نامتقارن بودن اتصالات (پایین‌تر بودن پهنای باند ارسال نسبت به دریافت) و همچنین بالا بودن ترافیک در برخی ساعات خاص، عملا باعث کندشدن سایت می‌شود.
روش دیگر، استفاده از امکانات شرکت‌های خارجی است که به روش‌های مختلفی انجام می‌پذیرد، این روش‌ها علاوه بر بالا بردن هزینه‌ها، مشکلات خاصی را برای سایت‌های ایرانی به وجود آورده است که از مهمترین آنها می توان به مسایل امنیتی اشاره کرد که برای مدتی بزرگترین دغدغه مدیران سایتهای ایرانی بود.
همه راه‌حل‌هایی که برای راه‌اندازی سایت‌های ایرانی مورد بررسی قرار گرفت، دارای مشکلاتی بودند. البته مشکلاتی که در فصل قبل به آنها پرداختم، تنها مربوط به کاربران ایرانی این سرویس‌ها بود ولی راه‌حل‌های قبلی هزینه‌هایی را هم به شرکت مخابرات به عنوان بزرگترین ارایه دهنده خدمات اینترنت در ایران وارد می‌کند که در بخش‌های بعد به آن اشاره می‌شود.
مزایای راه‌اندازی Data Center در ایران
پایین آمدن ترافیک Gatewayهای شرکت مخابرات:
در حال حاضر بیش از ۳۰ سرور در کشورهای غربی (اکثرا کانادا ، امریکا و انگلیس)
در اجاره شرکت‌های ایرانی قرار دارد. ترافیک ماهانه هر سرور به طور متوسط ۴۰۰GB می‌باشد که در مجموع بیش از ۱۲۰۰۰GB ترافیک به gateway های شبکه Data کشور وارد می‌کند. با توجه به این که اکثر بازدیدکنندگان این سایت‌ها ایرانی هستند، در حقیقت کاربر ایرانی، برای بازدید سایت ایرانی، علاوه بر این که باعث بالا رفتن ترافیک در gatewayهای شرکت مخابرات می‌شود، خود نیز متوسط زمان بیشتری را باید منتظر بماند.
این مسیله در شکل ۱ نشان داده شده است. در یک نمونه‌گیری آماری، تعداد hop ها برای ارتباط با یکی از سرورهای ایرانی واقع در Data Center خارج از کشور، عددی در حدود ۲۶ بوده است.
نکته جالب توجه این است که طبق مصوبه شورای عالی انقلاب فرهنگی، کلیه ISPها باید سرویس خود را از شرکت مخابرات و یا شرکت‌های مورد تایید مخابرات (ICPها ) دریافت کنند که این شرکت‌ها نیز اکثرا به نوعی به شبکه دیتا متصلند. در نتیجه عملاً تمامی ISP ها به نوعی به شبکه دیتای کشور متصل هستند.
حال اگر مرکز داده‌ای در ایران تاسیس شود، همان طور که در شکل ۲ نشان داده شده است، علاوه بر اینکه عملا هیچ ترافیکی به Gateway های دیتا وارد نمی‌شود، متوسط زمان انتظار برای مشاهده صفحات نیز بسیار کمتر خواهد بود.
نکته دیگر این که هنگام به وجود آمدن مشکلات پیش‌بینی نشده در gateway های اصلی مخابرات (مانند قطع شدن لینک Flag در خرداد ماه امسال) حداقل این امکان برای کاربران ایرانی وجود دارد که سایت‌های فارسی و ایرانی را به راحتی مشاهده کنند چرا که در این صورت عملاً نیازی به اتصال به شبکه اصلی اینترنت وجود ندارد.
با توجه به ساختار شبکه انتقال داده شرکت مخابرات و دیتا، می‌توان حداکثر تخمین ۱۰ HOP برای رسیدن کاربران ایرانی به سایت‌های ایرانی در نظر گرفت. هر چند در تست‌هایی بر روی سرورهای وب برخی ISPها که از خدمات شرکت مخابرات استفاده می‌کردند، به عدد ۸ Hop در هر اتصال به دست آمد که در مقایسه با سرورهای ایرانی واقع در خارج از کشور عدد قابل قبولی است.

استفاده بهینه از امکانات موجود:
شرکت مخابرات ایران سرمایه‌گذاری عظیمی در بخش دیتا و اینترنت انجام داده است. خطوط فیبر نوری که در سراسر تهران و ایران نصب شده است، پهنای باند بالایی را در اختیار گذاشته است.
در تهران، یک حلقه با پهنای باند بیش از ۶۲۲Mb بین ۸ مرکز اصلی مخابراتی وجود دارد که عملاً با چنین پهنای باندی می‌توان یک مرکز داده‌ای با استانداردهای جهانی را پیاده‌سازی کرد. تنها کافی است که Data Center مورد نظر به یکی از مراکز اصلی این حلقه متصل شود، که در نتیجه با هزینه پایینی می‌توان از امکانات موجود استفاده کرد.

هزینه پایین‌تر:
بیش از ۵۰% هزینه یک سرور اجاره‌ای در مرکز داده‌ای در خارج از کشور، مربوط به هزینه پرسنل آن مرکز و همچنین اجاره نرم‌افزارهای نصب شده بر روی سرور می‌شود. با توجه به پایین بودن دستمزد متخصصان ایرانی نسبت به همتاهای غربی، طبیعتاً هزینه سرور در ایران بسیار پایین‌تر از معادل خارجی خواهد شد.

امنیت بیشتر برای سرورها:
مطمینا زمانی که سرورهای ایرانی در خاک ایران وجود داشته باشند، می‌توان از اطلاعات آنها به نحو شایسته‌تری محافظت کرد.
علاوه بر حفاظت اطلاعات عمومی، اطلاعات مخصوص به سرورهای شرکت‌ها و سازمان‌های دولتی، نیاز به حفاظت ویژه‌ای دارند و در صورتیکه این سرورها در یک مرکز داده‌ای در ایران باشند، قطعاً حفاظت بیشتر نیز از آنها امکان‌پذیر خواهد بود.
در زمان بحران‌های عمومی مانند حملات هکری و یا مشکلات مشابه، مدیران یک مرکز داده‌ای ایرانی مسلماً می‌توانند سریع‌تر از مسیولین یک مرکز داده‌ای خارجی برای رفع مشکل اقدام نمایند.
مزایای در اختیار داشتن Data Center در آینده
پس از اجرای کامل پروژه FLAG، ایران از طریق BackBoneهای پرقدرت به پهنای باند ۱۰Gbps متصل خواهد شد. در این صورت پهنای باندی که در اختیار ایران قرار می‌گیرد، تفاوت چندانی با کشورهای پیشرفته اروپایی و امریکایی نخواهد داشت. علاوه بر این و با توجه به موقعیت فیزیکی ایران در منطقه و عنایت به این نکته که اکثر کشورهای منطقه به وسیله فیبرهای نوری قصد برقراری ارتباط با ایران را دارند، عملاً ایران در آینده به چهارراه ارتباطی خاورمیانه، کشورهای تازه استقلال یافته، پاکستان و افغانستان تبدیل خواهد شد.
در صورتی اجرای موفق پروژه راه‌اندازی Data Center در ایران، کشورمان به عنوان اولین کشوری که در خاورمیانه دارای مرکز داده‌ای است شناخته می‌شود. با توجه به استقبال گسترده از اینترنت در خاورمیانه و به خصوص کشورهای عربی و بازار رو به رشد آن، و همچنین کمبود متخصص در این کشورها و نیاز روزافزون شرکت‌های دولتی و خصوصی این کشورها به در اختیار داشتن سرورهای وب و سایت‌های اینترنتی، ایران می‌تواند با هزینه پایین سرورهای خود، مشتریان بسیاری را در منطقه به خود جلب کند. در مرحله بعدی و با توجه به جهانی بودن شبکه Flag، حتی می‌توان بازار سرورهای وب کشورهای اروپایی و امریکایی را با هزینه پایینی که سرورهای ایرانی خواهند داشت، به دست آورد. این امرعلاوه بر ایجاد اشتغال و ارزآوری، باعث بالا رفتن سطح دانش فنی و عملی ایران در زمینه سرورهای وب خواهد شد.
پیش از پایان نوشته، ذکر این نکته را ضروری می‌دانم که مهم‌ترین قدم برای اجرای این طرح، مجاب کردن شرکت مخابرات ایران برای در اختیار گذاشتن خطوط فیبر نوری به Data Center است. این نکته برای شرکت مخابرات ایران باید کاملا مشخص شود که Data Center نه تنها از امکانات مخابرات برای اتصال به اینترنت استفاده نمی‌کنند، بلکه وجود آن باعث پایین آمدن ترافیک Gatewayهای اتصالی دیتا به اینترنت خواهد شد که در نتیجه منجر به کاهش هزینه‌های این شرکت در بلندمدت می‌گردد.
مطالبی که به عنوان مزایای راه‌اندازی Data Center در ایران مطرح شد، تنها گوشه‌ای از مزایای این طرح بود که با تحقیقات اندک نگارنده حاصل شده است. همچنین در انتها، این نکته را قابل ذکر می‌دانم که با توجه به هزینه بالای این طرح برای راه‌اندازی و همچنین زیربنایی بودن آن، بدون کمک دولت و بانک‌ها و به خصوص مسیولین محترم پروژه ملی تکفا، امکان راه‌اندازی اصولی این مرکز وجود نخواهد داشت. امیدوارم با توجه به اهمیت این طرح، و نیز عزم دولت برای گسترش فناوری اطلاعات در کشور، مسیولین محترم در راه‌اندازی این پروژه حضوری فعال داشته باشند، چرا که این طرح باعث کم شدن فاصله کشورمان با سایر کشورهای
پیشرفته در زمینه فناوری اطلاعات خواهد شد.

 

Grid University

 

 

 

3Tera's Grid University provides live online training on various aspects of grid and utility computing. If you are a new AppLogic user, a 3Tera partner, or just want to get a better feel of what grid computing is all about, Grid University is the easiest way to learn. Grid University classes are taught by experienced 3Tera application engineers and developers who are building and troubleshooting grids and grid applications for a living. All you need to attend classes is a browser and a broadband Internet connection. Best of all, Grid University is free!


Signing up for Grid University is easy. First, pick a class you'd like to attend from the table below. Click on the class name to read the synopsis. Click on the calendar icon to register. You will receive an email with the URL and WebEx meeting info required to login to the class. We recommend that the first time you login to a Grid University class, you allow 15 min for setting up WebEx on your computer. Enjoy!



Indicates recorded sessions (click on the icon to play the session)

Level

General Knowledge

Grid Usage

Grid Maintenance

Introduction

What's New in AppLogic 2.1
Overview of new features and functionality

Foundations

Introduction to Grid and
Utility Computing
   Play Recording

Overview of AppLogic    Play Recording

Data Center Architecture    Play Recording

Application Operation

AppLogic Applications    Play Recording

Application Provisioning    Play Recording

Custom Application Deployment

Application Migration

Grid Provisioning    Play Recording

Appliances

AppLogic Appliances    Play Recording

Custom Appliances    Play Recording

NEW! Hands-on Custom Appliances

Creating Custom Appliance Catalog

New Linux Distro Appliances

Catalog Upgrades

Application Development

Sample Applications    Play Recording

Application architecture and development

Building Applications for Scalability

Creating Assemblies

Installing cPanel on Applogic

Adding / Removing Resources    Play Recording

Grid Maintenance

 

Volume Maintenance

Failure Handling and Recovery

Automation

Troubleshooting common issues

Upgrades / Downgrades    Play Recording

Advanced Topics

Theory of Operation

High Availability

Scalable cPanel Application Overview (by request)


Backup and disaster recovery strategies

 

 

 

 

 

 

 

 

 

http://www.3tera.com/grid_university.html

 

 

Grid, more Grid

Grid, more Grid

I’m a bit behind some of the other early movers…

3tera.  Taking grid and virtualization in a different direction.  They provide services for entire virtual clusters, virtual data centers, and more.

If implementing massive super computers and data centers becomes little more than filling in a sales web form, watch out hardware, hosting, and desktop sellers.

Perhaps google will get some competition now that massive CPU resources are being made available to anyone with an idea.

 

دانش کوانتوم وارد دنياي رايانه ها مي شود

دانش کوانتوم وارد دنياي رايانه ها مي شود

هفته هاي گذشته جمعي از دانشمندان دانشگاه پرادو بااعلام خبري موجب ايجاد موجي هيجان انگيز در عرصه پيشرفت هاي فني رايانه هاي کوانتومي شدند.
اين دانشمندان موفق شدند با ساخت ترکيبي جديد گامي بلند براي گسترش مفهوم رايانه هاي کوانتومي بردارند؛ کشفي که در يک مرحله مقدماتي مي تواند کاربردهاي فراواني در خصوص رمزنگاري و روشهاي جستجوي فوق سريع بانکهاي اطلاعاتي داشته باشد.
اين تيم تحقيقاتي توانستند روشي موثر را ارائه کنند که با کمک آن رشته اي از اشياي کوانتومي نظير الکترون ها به دو رشته کوچکتر شکافته شود و در اين شکافت براي چرخش يا اسپين ذراتي که داراي مثلا چرخش فوقاني بودند، ثابت باقي بمانند و بخشهايي که اسپين مخالف پيدا مي کنند جهتشان اصلاح شده و در راستاي اوليه قرار بگيرد.
اين روش در واقع نمونه اي از يک قطبي کننده يا پلارايزر کوانتومي است و با کمک آن اين اجزاي بسيار کوچک توانايي ايفاي نقش به عنوان اجزاي اصلي رايانه هاي کوانتومي را پيدا مي کنند.
اين عملکرد نوعي سوييچينگ اما در مقياس کوانتومي را امکانپذير مي سازد.يکي از دانشمندان شرکت کننده در اين طرح تحقيقاتي در اين خصوص مي گويد: براي نخستين بار ما اين امکان را به دست آورده ايم تا در شکافهاي اتمهاي آرسنيد گاليوم به جداسازي اسپيني بپردازيم و توانسته ايم الکترون هايي که در مسير اين نيمه رسانا حرکت مي کرده اند را با کمک اين حفره ها جدا کنيم.
اين شکافها خاصيت اسپيني دارند و در اين باره رفتاري مانند ذرات از خود نشان مي دهند. مساله جداسازي و دسته بندي کردن اين شکافها بر اساس جهت چرخش (اسپين) آنها تلاشي ماجراجويانه و چالشي بزرگ به حساب مي آمد.
اينک با طراحي روشي که مي تواند به طور موثر اين جداسازي حفره ها را بر مبناي اسپين آنها انجام دهد امکان ساخت ابزارهاي الکترونيکي براي کاربردي کردن اين نوع جداسازي ها را به وجود آورده است ؛ روشي که با کمک آن مي توان گامهاي بسيار مهمي را درتحقق روياي رايانه هاي کوانتومي برداشت.
رايانه هاي کوانتومي - که هنوز مراحل اوليه طراحي و مرحله تحقيقاتي خود را سپري مي کنند - يکي از ايده آل هاي صنايع رايانه اي است. با کمک اين رايانه ها تحليل و بررسي بسياري از مسائلي که تا کنون به عنوان مشکلات زمان بر و پر هزينه براي ابر رايانه ها مطرح بوده است ، امکانپذير مي شود.
يکي از کاربردهايي که نسل آينده رايانه هاي کوانتومي را از نسل فعلي متمايز خواهد کرد، توانايي فوق العاده آنها در حل مسائل مربوط به رمزنگاري و جستجو در بانکهاي اطلاعاتي بسيار وسيع است.
در اين گونه از مسائل با مواردي روبه رو هستيم که در مرحله نخست ممکن است تعداد بيشماري پاسخ ابتدايي در باره آنها وجود داشته باشد و براي حل آنها بايد ميليون ها عمل رياضي و محاسبه سريع به وسيله ابزارهاي رايانه اي انجام شود تا سرانجام گزينه نهايي و مطلوب به دست آيد و اين کار بايد در حداقل زمان ممکن اتفاق بيفتد.
در تحليل بايد پاسخهايي که به نظر نادرست مي آيند بسرعت از چرخه تحليل خارج شوند تا محدوده تحليل نهايي به حداقل کاهش يابد و اين نيازمند استفاده از الگوريتم هاي پيچيده و طولاني است که اجراي آن براي سريع ترين رايانه هاي فعال نيز بسيار زمانگير خواهد بود؛ چراکه در اين رايانه ها بايد تک تک پاسخهاي احتمالي مساله پيش از آن که به طور کامل از چرخه پاسخهاي ممکن حذف شود، مورد بررسي قرار بگيرد.
اتفاقي که در رايانه هاي (فعلا علمي - تخيلي) کوانتومي رخ خواهد داد يک روند خطي نخواهد بود، بلکه مشابه رخدادي که در يک پردازش موازي صورت مي گيرد دهها گزينه مي تواند همزمان مورد بررسي قرار گيرد و حتي مهمتر از آن روشهاي ل ه طور همزمان مورد آزمون قرار گيرد.
بايد توجه داشت اين مساله به طراحي يک سيستم سريع مربوط نيست. نبايد تصور کرد اگر اين روش به وسيله يک ابر رايانه فعلي 10ساعت طول مي کشد به وسيله رايانه کوانتومي 20دقيقه زمان مي برد. مساله مهمتر از اين ، کاهش زماني يا افزايش سرعت است.
در واقع مساله به ماهيت کوانتومي اجزا تشکيل هنده بر مي گردد و به واسطه خواص ذرات کوانتومي و استفاده از خواص آنها است که چنين پردازش هايي امکانپذير مي شود.
براي درک بهترموضوع فرض کنيد يک زوج الکترون را در اختيار داريم که يکي از آنها داراي اسپين مثلا بالا باشد و دومي با اسپين مخالف گردش مي کند.
حال اگر با کمک روشي بتوانيم بر اسپين يکي ازاين الکترون ها اثر بگذاريم و جهت چرخش آن را عوض کنيم جهت چرخش زوج آن نيز عوض مي شود؛ اما نکته مهم و جذاب در اين ميان استقلال اين اثر از فاصله است يعني اثر متقابلي که اين زوج الکتروني بر يکديگر دارند عملا رويدادي همزمان و مستقل از فاصله و زمان است.
اين تاثير متقابل که عملا پارامتر زمان را از ميان بر مي دارد اگر کنترل شده باشد مي تواند نقش سوييچي عادي را براي شما بازي کند.
فرض کنيد جهت اسپين بالا را معادل صفر و جهت اسپين پايين را معادل يک در نظر بگيريد (يا بعکس 9 در اين صورت هر زوج ذره براي شما مي تواند نشاندهنده يک بيت کوانتومي باشد و همان نقش را بازي کند، بنابراين با مجموعه اي از زوجهاي ذرات داراي خاصيت اسپين مخالف مي توانيد تمام محاسباتي را که با جريان هاي الکتريکي در يک پردازشگر رايانه اي انجام مي داديد با کمک ذرات کوانتومي به انجام برسانيد.
با اين روش و با فرض اين که روشي موثر براي به دام انداختن يکي از اعضاي اين زوج ذرات با اسپين مشخص را داشته باشيم و بتوانيم جهت آن را تغيير دهيم مي توانم حجم بالايي از داده ها را در فواصل دوردست منتقل کنيم يا از آن مهمتر اين که از آن درپردازش داده ها به طور همزمان استفاده کنيم.
بنابراين انجام محاسبات عددي عادي که به وسيله پردازشگرهاي عادي رخ مي دهد به وسيله رايانه هاي کوانتومي نيز با سرعتي فوق العاده بالاتر (در حد سرعت نور) مهيا مي شود.
اما مشکل اصلي آنجاست که بتوانيد وضعيت اسپين هريک از زوجها را پس از آن که محاسبات را انجام دادند به دست بياوريم. با وجود آن که ما وضعيت اين زوج ذرات را ابتداي محاسبات داريم ، اما زماني که دهها و صدها عمل رياضياتي ( با کمک سوييچينگ هاي متوالي) روي آنها اثر مي کند جهت چرخش بر اثر اين محاسبات به طور کامل و غير پيش بيني تغيير مي کند.
حال بايد براي تشخيص اين بايتهاي و تبديل آنها با اعداد يا نمادهاي آشنا جهت اسپين هاي نهايي را بدانيم. اين همان نقطه اي از فناوري رايانه هاي کوانتومي است که با چالش جدي مواجه است. روشي که اين گروه تحقيقاتي در هفته هاي اخير به آن دست يافته اند دو گام بزرگ در اين خصوص را برداشته است و امکان تشخيص اسپين و تزريق آن را مطرح مي کند، اما هنوز مساله درست کردن ابتدايي يک اسپين اوليه مطرح است ، ولي با وجود اين مشکل هم اکنون با ياري اين پروژه که بخشي از آن با حمايت نهادهاي دفاعي امريکا به انجام رسيده است امکان طراحي ترانزيستورهاي کوانتومي وجود دارد و مي توان آنها را ساخت.
اين به معني نزديک شدن به حل مشکلات اصلي پيش روي دانشمندان در طراحي رايانه هاي کوانتومي است.

منبع
 

چند لینک از سایت های آقای فرشید پیراهن سیاه دوست بسیار عزیزم

چند لینک از سایت های آقای فرشید پیراهن سیاه دوست بسیار عزیزم

لینکهای جدید گرید
http://www.tiziran.com/download/grid/gridComputing.htm
لینک کتاب گرید از گروه گرید دانشگاه آزاد تفرش
http://www.tiziran.com/download/grid/GridComputing.pdf
مقاله گرید
http://www.tiziran.com/pirahansiahGrid.pdf
وبلاگ حامد سلیمی پور رودسری سرپرست گروه گرید
http://xgrid.blogfa.com
وبلاگ دوست عزیزم یوسف عبدلیان باریکرسفی یکی از اعضای فعال گروه گرید
http://gridcomputing1.blogfa.com/
آموزش اوراکل 11
http://www.tiziran.com/
آموزش جاوا
http://www.learnjava.ir/
آموزش پردازش تصویر
http://www.pirahansiah.com/

 

Britain's fastest supercomputer unveiled

Britain's fastest supercomputer unveiled

'Hector' offers the power of 12,000 desktop PCs
 

January 14, 2008 (Reuters) -- A supercomputer that could help answer some of science's biggest questions is being unveiled today.

With the power of 12,000 desktop PCs, the mammoth machine called Hector is the U.K.'s fastest computer and one of the most powerful in Europe. It can make 63 trillion calculations each second, allowing scientists to conduct research into everything from climate change to new medicines.

The machine is housed in 60 wardrobe-sized cabinets in the University of Edinburgh's advanced computing center near the Scottish capital. After years of development, Chancellor Alistair Darling is due to attend the official launch ceremony for the machine, which cost £113 million.

Hector, which stands for High-End Computing Terascale Resource, was made U.S. manufacturer Cray Inc.

"Hector will enable us to do research that we simply could not do in any other way," said Jane Nicholson, a researcher at the Engineering and Physical Sciences Research Council, the public body that acts as the project's managing agent. "We want to push forward the boundaries of knowledge."

Researchers plan to tap into the computer's power to study ocean currents, build tiny parts for advanced computers and make warplanes less visible to radar. Other projects include research into superconductors, combustion engines and new materials. Scientists working in fields ranging from cosmology and atomic physics to disaster simulation and health care will also use the computer.

Despite its vast power, Hector falls short of the power produced by the world's biggest computer: Blue Gene/L. Housed at the Lawrence Livermore National Laboratory in California, Blue Gene is used to study nuclear weapons without the need for underground testing.

Editing by Steve Addison.


Reprinted with permission from

This article is reprinted by permission from Reuters.com, Copyright (c) 2006 Reuters. Reuters content is the intellectual property of Reuters or its third-party content providers. Any copying, republication or redistribution of Reuters content, including by caching, framing or similar means, is expressly prohibited without the prior written consent of Reuters. For additional information on other Reuters Services, visit the Reuters public Web site.

OLPC CTO Mary Lou Jepsen quits nonprofit effort

OLPC CTO Mary Lou Jepsen quits nonprofit effort

She's off to commercialize tech she invented in the OLPC development process
 

 (IDG News Service) -- The One Laptop Per Child project suffered a blow this week, with Chief Technology Officer Mary Lou Jepsen quitting the nonprofit to start a for-profit company to commercialize technology she invented with OLPC.

Jepsen, who joined OLPC as its first employee in 2005 after Nicholas Negroponte started the effort, will pursue an opportunity to chase after "her next miracle in display technology," OLPC said in an e-mail sent on Sunday.

Jepsen was responsible for hardware and display development for the rugged and power-saving XO laptop, designed for use by children in developing countries. Though the laptop has struggled to find buyers, it has been praised for its innovative hardware features and environmentally friendly design.

Her last day with the organization is Dec. 31, though she will continue consulting with OLPC, according to the e-mail. Dec. 31 is also the end of OLPC's Give One Get One program, in which two XO laptops can be purchased for about US$400, with a user getting one laptop and the other being donated.

Satisfied that XO laptops were shipping in volume, Jepsen noted in an e-mail that she was starting a for-profit company to commercialize some of the technologies she invented at OLPC.

"I will continue to give OLPC product at cost, while providing commercial entities products they would like at a profit," Jepsen wrote in an e-mail.

"I believe that the work I led in the design of the XO laptop is just the first step in changing computing," she wrote.

Powered by solar power, foot pedal or pull-string, the laptop doesn't rely on an electrical outlet to run, making it useful for situations where power is unreliable or unavailable. The laptop consumes between 2 watts to 8 watts of electricity from a specially designed lithium-ferro phosphate battery depending on usage, compared to 40 watts on commercial laptops depending on usage.

The laptop's battery lasts up to 21 hours because of custom-designed, efficient power-saving features implemented at the hardware and software level. Batteries in commercial laptops may explode at high temperatures, while XO's batteries can run and recharge in temperatures around 100 degrees Fahrenheit (38 degrees Celsius), Jepsen said in earlier interview.

OLPC is also designing a cow-powered generator that works by hooking cattle up to a system of belts and pulleys.

For connectivity, the laptop has mesh-networking features for Internet access.

An earlier version of this article incorrectly stated the OLPC's power consumption features, and the eighth paragraph was updated on 1/2/08 to reflect the accurate information.


Reprinted with permission from


Story copyright 2006 International Data Group. All rights reserved.

Insider charged with hacking California canal system

Insider charged with hacking California canal system

Ex-supervisor installed unauthorized software on SCADA system, indictment says
 

November 29, 2007 (IDG News Service) -- SAN FRANCISCO -- A former employee of a small California canal system has been charged with installing unauthorized software and damaging the computer used to divert water from the Sacramento River.

Michael Keehn, 61, former electrical supervisor at the Tehama Colusa Canal Authority (TCAA) in Willows, Calif., faces 10 years in prison on charges that he "intentionally caused damage without authorization to a protected computer," according to Keehn's Nov. 15 indictment. He did this by installing unauthorized software on the TCAA's Supervisory Control and Data Acquisition (SCADA) system, the indictment states.

Keehn accessed the system on or about Aug. 15, according to the indictment. He is set to appear in federal court on Dec. 4 to face charges of computer fraud.

As an electrical supervisor with the authority, he was responsible for computer systems and is still listed as the contact for the organization's Web site.

With a staff of 16, the TCAA operates two canals, the Tehama Colusa Canal and the Corning Canal, that provide water for agriculture in central California, near the city of Chico. Both systems are owned by the federal government.

The security of SCADA systems, which are used to control heavy machinery in industry, has become a hot-button topic in recent years. In September, video of an Idaho National Laboratory demonstration of a SCADA attack was aired on CNN, showing how a software bug could be exploited to destroy a power generator.

In the video, the turbine was gradually worn out and left shuddering and smoking. Sources familiar with the hack say this was done by turning the generator off and on while it was out of phase with the power grid, putting excessive stress on the turbine and causing its components to wear out.

It's not clear how much damage the attack on the authority's SCADA system could have caused, but in 2000 a disgruntled former employee was able to access the SCADA system at Maroochy Water Services in Nambour, Australia, and spill raw sewage into waterways, hotel grounds and canals in the area. That man, Vitek Boden, was eventually sentenced to two years in prison.

Even if an attack were to knock the TCAA's SCADA system offline, the canals could continue to operate, said Robin Taylor, assistant U.S. attorney with the U.S. Department of Justice, which is prosecuting the Keehn case. "When the computer doesn't work, they have to go to manual operation," she said.

The intrusion cost the TCAA more than $5,000 in damages, Taylor said.


Reprinted with permission from


Story copyright 2006 International Data Group. All rights reserved.

Cancer research gets boost from World Community Grid project

Cancer research gets boost from World Community Grid project

Researchers to accomplish 162 years of research in one to two years
 

November 06, 2007 (Computerworld) -- Harnessing the power of more than 795,000 computers around the world, a new research project that will analyze human proteins in the fight against cancer begins today using the World Community Grid, which was built and is maintained by IBM.

By using the combined computing power of the grid, the Help Conquer Cancer project will allow cancer researchers to drastically shorten the amount of time it would take to analyze 90 million images of crystallized proteins, from 162 years using existing computing systems to between one to two years using the harnessed power of the grid.

"Even with the largest computers we have, it would not be possible to finish this task," said Igor Jurisica, who leads the research team at the Ontario Cancer Institute in Canada, where the work is being done. Also participating in the work are scientists at Princess Margaret Hospital and the University Health Network.

The researchers will analyze the results of experiments on proteins using data collected by other scientists at the Hauptman-Woodward Medical Research Institute in Buffalo, N.Y.

The World Community Grid was created by IBM about three years ago as a way to harness unused global computing power to help solve a variety of health and scientific issues. The project calls on home and corporate PC users to register with the grid, then download and install a small software program that allows their unused computer cycles to work on critical scientific research.

Robin Willner, vice president of global community initiatives at IBM, said the total number of grid participants so far is about 795,000 around the world and grows daily. The combined computer power so far would create a supercomputer that would be the fifth most powerful in the world if it were in one place, she said. The grid uses participants' computers when the systems are idle.

The results of the research will go into the public domain and will be used by cancer researchers around the world, she said.

Three levels of security are part of the grid system and security audits are done constantly, Willner said.

By using the grid to better understand the structure of human proteins, researchers are trying to understand disease-related proteins and how they function, Jurisica said.

Once the 90 million images of some 9,400 different proteins are analyzed, data mining techniques will be used to go through the results, he said. Previous experiments have looked at smaller groups of samples because the means didn't exist to analyze them all, he said.

"This will be important for future research," Jurisica said. "Hopefully, it will shed light on the principles or mechanisms of the proteins."

"We know that most cancers are caused by defective proteins in our bodies, but we need to better understand the specific function of those proteins and how they interact in the body," he said. "We also have to find proteins that will enable us to diagnose cancer earlier, before symptoms appear, to have the best chance of treating the disease -- or potentially stopping it completely."

Eight other projects have been run so far on the World Community Grid, including protein folding and FightAIDS@Home, which completed five years of HIV/AIDS research in six months. Additional projects are also being scheduled.


 

Sun releases T2, its multicore processor sequel

Sun releases T2, its multicore processor sequel

Vendor targets virtualization apps for three new systems based on the chip
 

October 09, 2007 (Computerworld) -- Sun Microsystems Inc. today released its next generation of multicore chip technology, the Niagara 2 processor, which it says more than doubles the performance of its predecessor chip. Sun also disclosed that the next version of the chip, the 16-core Rock processor, will ship next year.
 
The UltraSparc T2, which is shipping in rack-mounted and blade server models, doubles the threads on an eight-core chip to 64, Sun said.

John Fowler, Sun's executive vice president of systems, said the latest release is part of a Sun effort to "move to systems that are designed for very high core and thread count." He also noted that the new system is ideally suited for virtualization, a direction that will envelop "basically our entire product line over time."

Sun described the T2 as an attractive virtualization platform, with logical partitions or LDoms as Sun calls them, that can support up to 64 copies of Solaris.

Fowler also noted that the development team has also married cryptographic security technology directly on the chip instead of having it on a separate card, which helps boost performance.

The new chip also offers improved floating-point capability, and it consumes 15% to 20% more power than the predecessor T1 processor, he said.

The initial product release will include a blade server, the T6320, which is priced from $9,995, and two rack systems T5120 and T5220, which start at $13,995.

Nathan Brookwood, an analyst at research firm Insight 64 in Saratoga, Calif., said virtualization capabilities included with the system as well as its performance per watt, will appeal to users. He believes the new systems "will be a compelling story" to Solaris users, and to companies running Linux with applications that have a Solaris equivalent.

Acquisition to provide Sun with Lustre file system

Acquisition to provide Sun with Lustre file system

Set to purchase assets of Cluster File Systems for undisclosed sum

 (Computerworld) -- Sun Microsystems Inc. Wednesday agreed to purchase most of Cluster File Systems Inc.'s business assets and intellectual property, including the Lustre file system, an open-source software distribution tool.

Terms of the deal, expected to close on Oct. 1, were not disclosed.

In a statement, Sun said that it plans to port the Lustre file system to Solaris and to step up efforts to augment Lustre on the Linux-based systems of multiple vendors. When contacted, Sun officials refused to elaborate on their plans for the technology.

Sun and Cluster File Systems in July had agreed to jointly integrate Lustre and the OpenSolaris ZFS file system.

The Lustre file system is typically used to power large-scale server applications running in high-performance computing environments, because of its ability to support massive amounts of storage capacity and server clusters without severe performance impact.

The acquisition comes amid questions surrounding Sun's legal ownership of the ZFS, which emerged last week when Network Appliance Inc. contended in a lawsuit that the technology infringes on patents it owns. The lawsuit was filed last week in federal court in Lufkin, Texas.

Earlier this year, Sun donated its ZFS code to the open-source community. That effort prompted analysts to fear that the Network Appliance lawsuit could have a far-reaching effect -- potentially adverse -- on the future of open-source technology.

Power management middleware bows for server grids

Power management middleware bows for server grids

 (Network World) -- Grid middleware vendor Appistry Inc. Monday launched a software module that automatically powers down servers when they are not needed by applications, thus saving on energy consumption.

The company's Enterprise Application Fabric (EAF) virtualizes applications enabled with Appistry middleware across x86 servers. The new EnergySaver module lets administrators define policies that establish acceptable workload levels and turn off computers when application use is low. When additional capacity is required, EnergySaver policies reactivate the servers.

EAF is used best in power-hungry, transaction-intensive environments. Because applications are decoupled from the grid of servers on which they run, energy can be saved by powering off servers when they are not needed. Additionally, EAF contains load-balancing and workload management features. The software provides high availability by replicating the state of a request to multiple places, so if a machine goes down, the request can be executed on another machine in the grid.

One customer, GeoEye Inc. in St. Louis, is getting ready to deploy EnergySaver. GeoEye collects satellite imagery for the Department of Defense and other customers. Ray Helmering, vice president of product engineering at GeoEye, said that with EnergySaver, he can set policies to shut down servers when the output of the satellites varies because of geographical position or weather conditions.

"We have variations in our processing schedule depending on the operations of our satellites," he said. "As imagery comes in, we need the processing power, but as there are slower times, we'll be able to save on energy. We don't know the actual impact yet of energy savings, but initial review says that this feature could be very important to us."

GeoEye develops its imaging application in-house and grid-enables it with an Appistry wrapper that allows its operations to be parallelized across the grid. This application requires huge amounts of computations and a large number of processors to run. Helmering's Appistry implementation, for instance, requires 50 dual-core x86 servers.

Analysts are encouraged with Appistry's efforts to consume less power in the data center. "The principle that Appistry is addressing is going to be really important," said Simon Mingay, an analyst at Gartner Inc. in Egham, England "Most data centers have the opportunity to alter the power status of the storage and servers in their infrastructure when that capacity is not required. In data centers, you run everything 24/7 and everyone is incented to keep things that way, which in a world where energy costs are not important, is perfectly fine. In a more energy-conscious world, that becomes more questionable."

Mingay said that many organizations have approached the idea of energy consumption by using job-scheduling software, such as Sun Microsystems Inc.'s N1 Grid Engine or CA Inc.'s Unicenter Autosys Job Manager, which allows applications to run when conditions are optimal for them.

The downside of EnergySaver, according to Mingay, is that it has to be deployed on Appistry-enabled applications. "We are going to see more of this technology, but right now applications need to be modified to work in the Appistry environment. That renders it generally unapplicable."

Appistry was founded in 2001 and is focused on data-intensive intelligence agencies, oil and gas and logistics organization.


Reprinted with permission from

For more information about enterprise networking, go to NetworkWorld.com
Story copyright 2006 Network World, Inc. All rights reserved.

IBM targets health care market with grid computing

IBM targets health care market with grid computing

 (Network World) -- Grid middleware vendor Appistry Inc. Monday launched a software module that automatically powers down servers when they are not needed by applications, thus saving on energy consumption.

The company's Enterprise Application Fabric (EAF) virtualizes applications enabled with Appistry middleware across x86 servers. The new EnergySaver module lets administrators define policies that establish acceptable workload levels and turn off computers when application use is low. When additional capacity is required, EnergySaver policies reactivate the servers.

EAF is used best in power-hungry, transaction-intensive environments. Because applications are decoupled from the grid of servers on which they run, energy can be saved by powering off servers when they are not needed. Additionally, EAF contains load-balancing and workload management features. The software provides high availability by replicating the state of a request to multiple places, so if a machine goes down, the request can be executed on another machine in the grid.

One customer, GeoEye Inc. in St. Louis, is getting ready to deploy EnergySaver. GeoEye collects satellite imagery for the Department of Defense and other customers. Ray Helmering, vice president of product engineering at GeoEye, said that with EnergySaver, he can set policies to shut down servers when the output of the satellites varies because of geographical position or weather conditions.

"We have variations in our processing schedule depending on the operations of our satellites," he said. "As imagery comes in, we need the processing power, but as there are slower times, we'll be able to save on energy. We don't know the actual impact yet of energy savings, but initial review says that this feature could be very important to us."

GeoEye develops its imaging application in-house and grid-enables it with an Appistry wrapper that allows its operations to be parallelized across the grid. This application requires huge amounts of computations and a large number of processors to run. Helmering's Appistry implementation, for instance, requires 50 dual-core x86 servers.

Analysts are encouraged with Appistry's efforts to consume less power in the data center. "The principle that Appistry is addressing is going to be really important," said Simon Mingay, an analyst at Gartner Inc. in Egham, England "Most data centers have the opportunity to alter the power status of the storage and servers in their infrastructure when that capacity is not required. In data centers, you run everything 24/7 and everyone is incented to keep things that way, which in a world where energy costs are not important, is perfectly fine. In a more energy-conscious world, that becomes more questionable."

Mingay said that many organizations have approached the idea of energy consumption by using job-scheduling software, such as Sun Microsystems Inc.'s N1 Grid Engine or CA Inc.'s Unicenter Autosys Job Manager, which allows applications to run when conditions are optimal for them.

The downside of EnergySaver, according to Mingay, is that it has to be deployed on Appistry-enabled applications. "We are going to see more of this technology, but right now applications need to be modified to work in the Appistry environment. That renders it generally unapplicable."

Appistry was founded in 2001 and is focused on data-intensive intelligence agencies, oil and gas and logistics organization.


Reprinted with permission from

For more information about enterprise networking, go to NetworkWorld.com
Story copyright 2006 Network World, Inc. All rights reserved.

Sun's grid computing service goes global

Sun's grid computing service goes global

(IDG News Service) -- Sun Microsystems Inc. is expanding its Network.com utility computing service from the U.S. to 23 countries in Europe and Asia, the company said Thursday.

The utility computing service, in which customers pay an hourly rate for access to a Sun data center, began as a U.S.-only pilot in March but is now ready for a large geographic expansion, said Rohit Valia, group product manager for the Sun Grid Compute Utility.

Sun charges $1 per CPU per hour to access a network of Sun x64 hardware running the Solaris 10 operating system. End users can now access the utility from Australia, Austria, Belgium, Canada, China, the Czech Republic, Denmark, Finland, France, Germany, Greece, Hungary, India, Ireland, Italy, Japan, New Zealand, Poland, Portugal, Singapore, Spain, Sweden and the U.K.

IBM, Hewlett-Packard Co. and other computer vendors provide similar services. Utility computing, also called on-demand computing or, more informally, computing "in the cloud," is for organizations that have a short-term need for extra computing capacity but don't want to incur the expense of adding onto their own data centers. By taking advantage of utility computing services, they only have to build out their own IT infrastructures to handle an average level of usage, not the occasional peak usage, said Valia.

"Our business model is around charging for CPU cycles, not idle CPUs. We only charge when your CPU is actually processing data," he said.

Sun is also adding a feature called Network.com Internet Access that enables customers to interact, through Sun's utility data center and the Internet, with other companies that have resources the customer might want to use for a particular project. The company will also offer a limited beta program for developers called Job Management Application Programming Interfaces. This offering allows users to perform production-scale tests when they're building software applications using Network.com.


Reprinted with permission from


Story copyright 2006 International Data Group. All rights reserved.

Parallel software speeds DreamWorks animation efforts

Parallel software speeds DreamWorks animation efforts

Ibrix helps studio speed development of next feature film, Kung Fu Panda

February 5, 2008 (Computerworld) DreamWorks Animation SKG Inc. has added Ibrix Inc. parallel file server software to its digital animation system in an effort to accelerate high-resolution lighting and rendering applications by up to five times. Artists at the animation studio are using the technology to improve visual detail on films such as Kung Fu Panda, DreamWorks' next animated feature, which is set for release in June, studio officials said this week.

The Ibrix software has been added to an animation-producing system that includes Hewlett-Packard Co. ProLiant DL385 servers and StorageWorks MSA70 disk shelves. Ed Leonard, DreamWorks chief technology officer, said the Ibrix Fusion software has boosted I/O speeds to shorten concurrent information access by artists across the company's 4,000-processor Linux cluster computing farm.

Leonard said that he expects that the technology will become a fixture for all future DreamWorks Animation films.

Leonard said DreamWorks added Ibrix to its animation system about six months ago to create an interactive lighting prototype for digital artists working on lighting for Kung Fu Panda. The company was seeking to stop system I/O from being brought "to its knees" by animators simultaneously pinging the compute cluster overnight to retrieve digital frame data.

For example, artists perform between 75,000 to 100,000 batch-processing jobs per night, each ranging from a few minutes per frame to 15 hours per frame depending on the rendering complexity of the digital frame sequence.

Scenes from DreamWorks' Kung Fu Panda

"We needed super performance [for our] file storage and access so when 2,000 computers start asking for the same texture file for one of the [film's] characters, our system isn't overweighed by I/O," said Leonard. Scenes that once took two hours to create, he said, are now completed in seconds. "That's pretty remarkable, and we're scratching the surface on where we are going with this."

DreamWorks Animation films typically require 25 million render hours from start to finish. The studio releases at least two films every year and is generally developing 10 different animation features at once, noted Leonard. He said that healthy compute appetite is being further strained as movie-goers grow to expect more lifelike character facial expressions, movement controls and scene background visuals.

Scenes from DreamWorks' Kung Fu Panda

"It's not enough to have a great story anymore. When your competition is coming out with Harry Potter and Pirates of the Caribbean, you need to have the animated world visually come alive in ways that you haven't seen before," said Leonard.

The animation studio is in the early stages of evaluating Ibrix for long-term storage of its Microsoft SQL Server database and online reference library built to archive previous DreamWorks Animation film releases and production data.

منبع : http://www.computerworld.com