close
تبلیغات در اینترنت
مرجع دانلود کتب و فیلم دانشگاهی

کتاب اسلاید آموزشی ذخیره و بازیابی دکتر روحانی رانکوهی

توضیحات:

 

 

این کتاب اسلاید آموزشی ذخیره و بازیابی دکتر روحانی رانکوهی که در بیست فصل به صورت قسمت بندی جداگانه گردآوری شده است می باشد.مباحث و موضوعات کلی این کتاب شامل قسمت هایی از جمله رسانه های ذخیره سازی،آشنایی با مفاهیم سیستم فایل،ساختارهای مبانی فایل،ساختارهای شاخص دار،آشنایی با ساختار فایل مستقیم  می باشد.کتاب حاضر به عنوان یک متن درسی خوب برای درس ذخیره و بازیابی اطلاعات بوده و می تواند دانشجویان عزیز را در پیشرو اهدافشان در رشته کامپیوتر برساند.این کتاب برای دانشجویان دوره کاردانی بوده و در دوره کارشناسی همان کتاب سیستم و ساختار فیل مورد بحث و یادگیری قرار می گیرد.

ادامه مطلب...
دانلود پایان نامه مدلی کارا برای ساخت پیکره متنی موازی از روی پیکره متنی تطبیقی

پایان‌نامه کارشناسی ارشد در رشته مهندسی کامپیوتر (نرم افزار)

عنوان:مدلی کارا برای ساخت پیکره متنی موازی از روی پیکره متنی تطبیقی

تعداد صفحات : 98

چکیده:

اغلب رویکردهای نوین ترجمه در حوزه ترجمه ماشینی از جمله ترجمه ماشینی آماری، ترجمه ماشینی مبتنی بر مثال و ترجمه ماشینی ترکیبی از مجموعه متون هم‌ترجمه تحت عنوان پیکره‌های متنی موازی به عنوان داده آموزشی اصلی استفاده می‌کنند. اما برای اغلب زبان‌ها پیکره‌های موازی به میزان بسیار کمی در دسترس هستند و یا مربوط به دامنه خاصی از نوشتجات می‌شوند. در طرف دیگر پیکره‌های تطبیقی قرار دارند که مواد اولیه آنها به راحتی به دست می‌آید. پیکره‌های تطبیقی شامل متون هم‌ترجمه نیستند اما در آن هر دو متن در دو زبان مختلف از نظر شباهت معیارهایی چون محتوا، تاریخ انتشار، عنوان و … با یکدیگر قابل تطبیق هستند.

پیکره‌های تطبیقی شامل جملاتی هستند که می‌توانند ترجمه خوبی برای یکدیگر باشند. هدف این رساله ساخت خودکار پیکره موازی با استخراج اینگونه جملات از پیکره تطبیقی است. مدلی که در این پژوهش ارائه می‌شود از سه مرحله اصلی تشکیل می‌شود: انتخاب جفت جملات کاندیدای موازی بودن با استفاده از فیلتر نسبت طول جملات و فیلتر تعداد کلمات مشترک  انتخاب جفت جملات موازی با استفاده از طبقه‌بند آنتروپی بیشینه و در نظر گرفتن ویژگی‌های مربوط به طول دو جمله، کلمات مشترک آنها و ویژگی‌های مبتنی بر همترازی در سطح کلمه بین دو جمله  بالابردن دقت جفت جملات استخراج شده با انتخاب تنها یکی از جملات جفت شده با هر جمله. این کار را می‌توان بوسیله محاسبه نزدیکی آن جمله با ترجمه جملات جفت شده از طرف مقابل توسط معیار TER و انتخاب نزدیک‌ترین جمله انجام داد.

در انتها کارآیی مدل ارائه شده در دو بخش  ارزیابی طبقه‌بند آنتروپی بیشینه طراحی شده و  ارزیابی میزان سودمندی جفت جملات موازی استخراج شده در بهبود کیفیت ترجمه ماشینی بررسی می‌شود.

فصل اول: مقدمه

1-1- مقدمه

به دلیل افزایش ارتباطات متقابل منطقه‌ای و نیاز برای تبادل اطلاعات، تقاضا برای ترجمه زبان بسیار افزایش یافته است. بسیاری از نوشتجات نیاز به ترجمه دارند از جمله مستندات علمی و فنی، دستورالعمل‌های راهنما، مستندات حقوقی، کتاب‌های درسی، بروشورهای تبلیغاتی، اخبار روزنامه‌ها و غیره؛ که ترجمه برخی از آنها سخت و چالش برانگیز است اما اکثرا خسته کننده و تکراری هستند و در عین حال به انسجام و دقت نیاز دارند. برآوردن نیازهای روز افزون ترجمه برای مترجمان حرفه‌ای دشوار است. در چنین موقعیتی ترجمه ماشینی می‌تواند به عنوان یک جایگزین به کار گرفته شود.

ترجمه ماشینی بعد از 65 سال یکی از قدیمی‌ترین کاربردهای کامپیوتر است. در طول سال‌ها، ترجمه ماشینی مرکز توجه تحقیقات زبان‌شناسان، روان‌شناسان، فیلسوفان، دانشمندان و مهندسان علم کامپیوتر بوده است. اغراق نیست اگر بگوییم کارهای جدید در حوزه ترجمه ماشینی، به طور قابل ملاحظه‌ای در توسعه زمینه‌هایی نظیر زبان شناسی رایانه‌ای، هوش مصنوعی و پردازش زبان‌های طبیعی برنامه‌گرا، مشارکت کرده است.

ترجمه ماشینی را می‌توان به این صورت تعریف کرد: “ترجمه از یک زبان طبیعی (زبان مبدأ) به زبان دیگر (زبان مقصد) با استفاده از سیستم‌های کامپیوتری شده و به همراه یا بدون کمک انسان”. کار پژوهشی در حوزه ترجمه ماشینی به هدف بزرگ ترجمه تمام خودکار با کیفیت بالا (قابل نشر) محدود نمی‌شود. غالبا ترجمه‌های ناهموار برای بازبینی موضوعات خارجی کافی است. تلاش‌های اخیر، در جهت ساخت کاربردهای محدودی در ترکیب با تشخیص گفتار به خصوص برای دستگاه‌های دستی می‌باشند. ترجمه ماشینی می‌تواند به عنوان پایه‌ای برای ویرایش‌های بعدی به کار گرفته شود، مترجم‌ها معمولا با ابزارهایی نظیر حافظه‌های ترجمه که از فناوری ترجمه ماشینی استفاده می‌کنند اما آنها را در کنترل خود قرار می‌دهند، استفاده می‌کنند.

ترجمه ماشینی یکی از حوزه‌های پژوهشی «زبانشناسی رایانه‌ای» است. تا کنون روش‌های مختلفی جهت خودکار کردن ترجمه ابداع شده است، که در نوشتجات حوزه ترجمه ماشینی به صورت‌های مختلفی دسته‌بندی شده‌اند. شکل 1-1 انواع روش‌های ترجمه ماشینی موجود را در قالب دسته‌بندی که در  آمده است نشان می‌دهد.

1-1-1- ترجمه ماشینی مبتنی بر فرهنگ لغت

این نوع ترجمه ماشینی مبتنی بر مدخل‌های فرهنگ لغت است؛ و در آن از معادل کلمه جهت تولید ترجمه استفاده می‌شود. اولین نسل ترجمه ماشینی (از اواخر دهه 1940 تا اواسط دهه 1960) کاملا بر مبنای فرهنگ لغت‌های الکترونیک بودند. این روش همچنان تا حدی در ترجمه عبارات و نه جملات مفید است. اکثر روش‌هایی که بعدا توسعه داده شدند کم یا بیش از فرهنگ لغات دوزبانه بهره می‌گیرند .

2-1-1- ترجمه ماشینی مبتنی بر قانون

ترجمه ماشینی مبتنی بر قانون با اطلاعات ریخت شناسی، نحوی و معنایی زبان‌های مبدأ و مقصد سر و کار دارد. قوانین زبانی از این اطلاعات ساخته می‌شوند. این روش می‌تواند با پدیده‌های مختلف زبانی مقابله کند و قابل گسترش و قابل نگهداشت است، اما استثنائات موجود در دستور زبان مشکلاتی به این سیستم می‌افزاید. همچنین فرآیند پژوهشی آن نیاز به سرمایه‌گذاری زیادی دارد. هدف ترجمه ماشینی مبتنی بر قانون تبدیل ساختارهای زبان مبدأ به ساختارهای زبان مقصد است. این روش رویکردهای مختلفی دارد.

– رویکرد مستقیم: کلمات زبان مبدأ بدون عبور از یک نمایش میانی ترجمه می‌شوند. در این روش به بستر متن، معنی و دامنه توجه نمی‌شود.

– رویکرد انتقالی: مدل انتقالی متعلق به نسل دوم ترجمه ماشینی است (از اواسط دهه 1960 تا دهه 1980). در این مدل، زبان مبدأ به یک انتزاع که نمایشی کمتر مختص به زبان است، انتقال می‌یابد. سپس یک نمایش معادل برای زبان مقصد (با همان سطح انتزاع) با استفاده از فرهنگ لغات دوزبانه و قوانین گرامری تولید می‌شود.

– میان زبانی: این روش متعلق به نسل سوم ترجمه ماشینی است. در این روش زبان مبدأ به یک زبان (نمایش) میانی تغییر شکل می‌دهد که این زبان میانی مستقل از هر دو زبان شرکت کننده (مبدأ و مقصد) در ترجمه است. سپس ترجمه برای زبان مقصد از این نمایش کمکی به دست می‌آید. از اینرو در این نوع سیستم تنها به دو ماژول تجزیه و ترکیب نیاز است. همچینن به دلیل مستقل بودن این روش از زبان‌های مبدأ و مقصد، بیشتر در ماشین‌های ترجمه چندزبانه استفاده می‌شود. این روش بر یک نمایش واحد از زبان‌های مختلف تأکید می‌کند.

3-1-1- ترجمه ماشینی مبتنی بر دانش

این روش با واژه‌نامه‌ای مفهومی‌که یک دامنه را نشان می‌دهد سر و کار دارد. این روش شامل دو مرحله تحلیل و تولید است. اجزای پایه‌ای یک ماشین ترجمه مبتنی بر دانش عبارتند از یک آنتولوژی از مفاهیم، واژه‌نامه و گرامر زبان مبدأ برای فرآیند تحلیل، واژه‌نامه و گرامر برای زبان مقصد و قوانین نگاشت بین نحو زبان میانی و زبان‌های مبدأ و مقصد.

4-1-1- ترجمه ماشینی مبتنی بر پیکره

رویکرد ترجمه ماشینی مبتنی بر پیکره‌های متنی از سال 1989 ظهور پیدا کرد و به طور وسیعی در حوزه ترجمه ماشینی به آن پرداخته شد؛ و به دلیل دقت بالای این روش در ترجمه، بر دیگر روش‌ها غلبه یافت. در این روش، دانش یا مدل ترجمه به طور خودکار از پیکره‌های متنی (مجموعه متون) دوزبانه گرفته می‌شود. از آنجایی که این رویکرد با حجم زیادی از داده‌ها کار می‌کند، ترجمه ماشینی مبتنی بر پیکره نامیده شده است. برخی از انواع روش‌های مبتنی بر پیکره در ادامه شرح داده می‌شوند.

ترجمه ماشینی آماری

با اینکه ایده اولیه ترجمه ماشینی آماری توسط وارن ویور در سال 1941 معرفی شد، اما از سال 1993 که این روش توسط محققان آی بی ام مدل شد به طور گسترده‌ای مورد استفاده قرار گرفت؛ به طوری‌که در حال حاضر ترجمه ماشینی آماری رایج‌ترین رویکرد در ترجمه ماشینی به شمار می‌آید. در روش ترجمه ماشینی آماری از مدل‌های آماری استفاده می‌شود که پارامترهای این مدل‌ها از متون دوزبانه یا همان «پیکره‌های موازی» استخراج می‌شوند. به عبارت دیگر سیستم ترجمه ماشینی آماری، احتمالات ترجمه را از پیکره موازی می‌آموزد و با استفاده از این احتمالات برای جملات ورودی که در فرآیند آموزش دیده نشده‌اند، ترجمه‌ای مناسب تولید می‌کند. در این روش از دو مدل عمده به نام مدل‌های مبتنی بر کلمه و مدل‌های مبتنی بر عبارت استفاده می‌شود.

ترجمه ماشینی مبتنی بر مثال

روشهای ترجمه ماشینی مبتنی بر مثال، روشهای مبتنی بر حافظه نیز نامیده شده‌اند. ایده این روش از سال 1980 در ژاپن شروع شد. این نوع سیستم‌ها تلاش می‌کنند تا جمله‌ای مشابه جمله ورودی در پیکره موازی پیدا کنند، و سپس با اِعمال تغییراتی بر روی جمله ترجمه شده که قبلا ذخیره شده، ترجمه جمله ورودی را تولید کنند.

ایده اولیه در این روش، استفاده از ترجمه‌های انسانی موجود برای ترجمه متن‌های جدید است. لذا کافی است متون جدید به قطعه‌های کوچک شکسته شود و ترجمه معادل این قطعات، در پایگاه داده‌ای از قطعات ترجمه شده جستجو شده و ترجمه مورد نظر تولید گردد. این روش دارای محدودیت دادگان می‌باشد. جمع‌آوری مجموعه مثال‌های بسیار بزرگ نیز کل زبان را پوشش نمی دهد. بنابراین معمولا این روش برای زیر مجموعه‌های محدودی از یک زبان استفاده می‌شود.

 

ادامه مطلب...
دانلود پایان نامه بررسی فناوری اطلاعات در حوزه بانکداری

بیان مسئله

توسعه و کاربری فناوری اطلاعات در حوزه های مختلف به ویژه در حوزه بانکداری، حاصل قابلیت های فناوری اطلاعات است که امروزه در دنیای کسب و کار با اقبال فراوان رو به رو شده است. انسان هزاره سوم در تلاش است با شتاب دادن به روند توسعه و کاربری فناوری اطلاعات در بخشهای مختلف نظام اجتماعی از الگوی سنتی فاصله بگیرد و الگویی جدید، متناسب با الزامات عصر اطلاعات ایجاد کند.

در این زمینه بسیاری از تامین کنندگان کالا وخدمات، طی دهه­های اخیر به سرعت به سرمایه گذاری روی فناوری­های نوین ارائه خدمات به مشتریان، به عنوان راهی برای کنترل هزینه­ها، جذب مشتریان جدید و تحقق انتظارات مشتریان روی آورده­اند و استفاده از این فناوری­های جدید همانند فروش اینترنتی را به عنوان یک ضرورت راهبردی در دستور کار خود قرار داده است.

فروش اینترنتی یکی از شاخه های بازاریابی الکترونیک است که در آن به مشتریان این امکان داده میشود تا از طریق اینترنت و با استفاده از وب سایت طراحی شده توسط شرکتها، از دامنه وسیعی از خدمات استفاده نمایند.

اگرچه اینترنت روش ارایه محصول شرکت ها را متحول کرده است اما مطالعات کمی در مورد پذیرش این خدمات از سوی مشتری صورت گرفته است. در واقع، مشتریان به سادگی به تجارت های تحت وب اطمینان نمی کنند و اطلاعات خود را در اختیار آنها قرار نمی­دهند. از طرفی   می­توان گفت اطمینان مجموعه ای از تمایلات مشتریان برای شرکت در معاملات تحت وب را در برمی­گیرد. اطمینان مصرف کنندگان به تجارت الکترونیک در مقایسه با معاملات رو در رو دارای ابعاد منحصر به فردی مانند استفاده گسترده از تکنولوژی در معاملات، طی مسافت، ماهیت غیر شخصی محیط اینترنت است.

اینترنت مزایای زیادی هم برای فروشندگان و هم برای مشتریان خود داشته است، با استفاده از این فناوری نه تنها مشتریان می­توانند در هر زمان و مکان خرید خود را انجام دهند، بلکه کاهش هزینه ها و افزایش بهره وری را برای فروشگاه­ها نیز به ارمغان آورده است.

بر اساس آمار منتشر شده بر روی وب سایت اینترنت ورد استتس تعداد کاربران اینترنت ایران در سال 2011 نسبت به سال گذشته 3 میلیون و 300 هزار و نسبت به سال 2009 در حدود 4 میلیون و 300 هزار نفر افزایش داشته است. آمار این وب سایت در سال 2010 تعداد کاربران ایرانی را 33 میلیون و 200 هزار نفر اعلام کرده بود در حالی که آمار جدید این وب سایت تعداد کاربران ایرانی را 36 میلیون و 500 هزار نفر اعلام کرده است، تعدادی که بیش از نیمی از کاربران اینترنت در کل خاور میانه را تشکیل داده است در حالی که بهبود چندانی در سرعت و کیفیت ارائه خدمات آن مشاهده نمیشود. با توجه به مزایای خرید اینترنتی و آمار بالای کاربران اینترنت در ایران آمارها نشان دهنده ی عدم استفاده از ظرفیت کامل فضای مجازی برای ارائه ی این خدمات است و حاکی از آن است که کمتر از 40%دارندگان کارتهای بانکی خرید اینترنتی انجام میدهند. (مرادی و دیگران، 1389 ).

پذیرش خدمات الکترونیکی توسط مصرف کنندگان و تمایل به استفاده از هر یک از خدمات از جمله خرید اینترنتی ارتباط مستقیم با ادراک آنها از ویژگی خدمت مورد نظردارد (مرادی و دیگران1389).

بنابراین با توجه به مطالب فوق بررسی این مطلب که اطمینان مصرف کننده در خریدهای الکترونیکی چه نقش و تأثیری دارد می تواند از جمله سؤالات اساسی این تحقیق باشد.

2.1 ضرورت و اولویت تحقیق

مطالعات متعددی نشانگر این است که ریسک ادراک شده و اعتماد به عنوان دو عامل تاثیرگذار در رفتار افراد در مقابل استفاده از خدمات اینترنتی مطرح می­باشد. ریسک ادراکی را میتوان به عنوان ادراک از امکان رخداد پیامدهایی مغایر با پیامدهای مطلوب به دلیل استفاده از خرید اینترنتی در زمینه های روانی، اجتماعی، زمان، حریم شخصی، مالی و عملکردی تعریف نمود، در واقع ریسک ادراکی در بافت خرید اینترنتی به امنیت و قابلیت اعتماد معاملات و تبادلات از طریق اینترنت اشاره دارد.

در حوزه خدمات، خدمات مالی در مقایسه با انواع دیگر خدمات عمدتا به خاطر پیچیدگی و غیر قابل مقایسه بودن با محصولات خدماتی و درجه بالایی از ریسک مربوط به تصمیم گیری برای خرید، خدمت منحصر به فردی در نظر گرفته می­شود (کاظمی و مهرورزی، 1389). ریسک ادراک شده به عنوان یک مفهوم روانشناسی یکی از عوامل اصلی در عدم استفاده مشتریان از خدمات خرید از طریق اینترنت مطرح می­شود، در حالی که روانشناسان اجتماعی اعتماد را به عنوان عامل اصلی کاهش دهنده ریسک که بر این مشکل غلبه می­کند، ارائه می­کنند.

اعتماد عبارت است از انتظاری که گفته، قول یا حرف دیگری قابل اطمینان است (غفاری آشتیانی و دیگران، 1390). اعتماد به عنوان یک فاکتور ضروری در معرفی یک محصول یا سرویس جدید در حیطه تکنولوژی اطلاعات (مثل بانکداری اینترنتی) مطرح می­باشد، اعتماد در خرید اینترنتی انتظاراتی است که یک سرویس یا محصول خرید اینترنتی باید برآورده کند یا تعهداتی است که باید انجام دهد.

اعتماد به عنوان قلب سیستم خرید اینترنتی مطرح شده است، در واقع اعتماد به عنوان عنصری مهم بر رفتار مصرف کننده تاثیر میگذارد و موفقیت پذیرش تکنولوژیهای جدید را تعیین می­کند.

با توجه به روند رو به گسترش و توسعه فناوری اطلاعات و تجارت الکترونیکی و نقش اینترنت در سراسر جهان و از جمله ایران میتوان نتیجه گرفت که توجه به این موضوعات و برنامه ریزی در جهت آنها یک ضرورت اجتناب ناپذیر است.

یک برنامه ریزی خوب و مناسب آن است که با شناخت دقیق مشکلات و موانع از یک طرف و شناخت منابع و پتانسیلها از طرف دیگر همراه باشد. در این راستا مبحث شناسایی ریسک ادراک شده در استفاده از فروشگاههای اینترنتی شایان توجه و بررسی میباشد.

همچنین با توجه به وجود رابطه مثبت بین طول رابطه مشتری با ادراک و پنداشتی که مشتری از میزان قابل اعتماد بودن دارد، لزوم شناخت ریسک ادراک شده توسط مشتریان و مدیریت بر آنها در جهت کاهش ریسک و جلب اطمینان هر چه بیشتر مشتریان، بیشتر احساس می­گردد (مرادی و دیگران، 1389).

با توجه به مطالب فوق و محرز شدن نقش و اهمیت متغیرهای اعتماد و ریسک ادراک شده در استفاده از خدمات اینترنتی پژوهش حاضر به دنبال بررسی تأثیر همزمان این دو متغیر بر پذیرش خدمات بانکداری اینترنتی می باشد.

3.1 سوالات تحقیق

سوالاتی که ما در این پایان نامه به دنبال پاسخ به آنها هستیم عبارتند از:

  1. ریسک ادراک شده از خدمات خرید اینترنتی با استفاده از این خدمات چه رابطه ای دارند؟
  2. اطمینان مشتریان به فروشگاه­های اینترنتی با ریسک اداراک شده استفاده از خدمات آنها چه رابطه ای دارند؟
  3. اطمینان مشتریان به فروشگاه­های اینترنتی با ادراک مشتریان از توانایی آنها برای ارائه خدمات اینترنتی چه رابطه ای دارند؟
  4. اعتماد مشتریان به توانایی فروشگاه­های اینترنتی برای ارائه خدمات با قصد استفاده از این خدمات چه رابطه ای دارند؟

4.1 اهداف تحقیق

با توجه به رقابتی شدن فضای اقتصادی، توجه به نیازهای مشتریان و رفع آنها به عنوان یک هدف کاربردی، این تحقیق می تواند تا حد زیادی بنگاههای مورد مطالعه را در رسیدن به جایگاهی بالاتر از سایر رقبای خود موفق کند.

با اینکه گسترش فناوری­های رایانه­ای راهی نو به سوی بازارهای جدید در سراسر دنیا گشوده است و اکثر شرکت ها در کشورهای مختلف وارد این عرصه از تجارت شده اند، در کشور ما توجه به این امر مغفول مانده است در حالی که با توجه به شرایط اقتصادی کشور می تواند سودآوری زیادی را برای شرکت های داخلی داشته باشد البته اگر با نیازهای مشتریان و جامعه مطابقت داشته باشد.

اهداف کاربرداری: با توجه به ماهیت موضوع تمامی شرکت های فروش اینترنتی و شرکت هایی دیگر که در راستای گسترش خدمات و فروش الکترونیکی گام بر می دارند می توانند جرء بهره برداران این تحقیق باشند.

5.1 شرح اجمالی روش تحقیق

1.5.1 شرح کامل روش تحقیق بر حسب هدف، نوع داده ها و نحوه اجراء

از آنجا که در این تحقیق محقق به دنبال چگونه بودن موضوع است به طوریکه شامل جمع‌آوری اطلاعات برای پاسخ به سؤالات مربوط به وضعیت فعلی موضوع مورد مطالعه می‌شود و هم جنبه کاربردی دارد و هم جنبه مبنایی، که در بعد کاربردی از نتایج این تحقیقات در تصمیم‌گیری­ها و سیاست‌گذاری­ها و همچنین برنامه‌ریزی­ ها می­ توان استفاده کرد، از روش تحقیق توصیفی از نوع پیمایشی و علی برای بررسی این موضوع استفاده خواهد شد.

ادامه مطلب...
پایان نامه مدلی مبتنی بر نگاشت بیتی و تابع دستور جهت کنترل دسترسی در بانک اطلاعات XML

عنوان :مدلی مبتنی بر نگاشت بیتی و تابع دستور جهت کنترل دسترسی در بانک اطلاعات XML

تعداد صفحات : 111

چکیده

امروزه اطلاعات مستقر بر روی وب به سرعت در حال افزایش است و حجم بسیار زیادی از این اطلاعات در قالب XML ظاهر شده است. یکی از مزایای اصلی استفاده از XML ، نمایش داده‌های غیر ساختیافته است که قابلیت‌های بسیاری را در اختیار کاربران می‌گذارد. ویژگی غیر ساختیافته بودن اطلاعات و انعطاف‌پذیری XML باعث همه‌گیر شدن استفاده از آن شده و در بانک‌های اطلاعات نیز مورد توجه قرار گرفته است. بنابراین برقراری امنیت در مستندات XML یک نیاز و بحث کلیدی می‌باشد. داده‌ها به هر شکلی که ذخیره شوند باید از تهدیدهای ممکن (سرقت، خرابکاری، دستکاری و مواردی از این قبیل) محافظت گردند. برای جلوگیری از تهدیدها، روش‌ها و مدل‌هایی را در بانک‌های اطلاعات طرح‌ریزی و پیاده‌سازی نموده‌اند. مهمترین این مدل‌ها، مدل کنترل دسترسی می‌باشد. این مدل خود مبتنی بر روش‌های مختلفی می‌باشد که در بانک‌های اطلاعات گوناگون به کار گرفته می‌شوند. در این پایان‌نامه پس از بررسی روش‌های کنترل دسترسی، روشی جدید مبتنی بر نگاشت بیتی و تابع دستور جهت کنترل دسترسی در بانک اطلاعات XML پیشنهاد شده است. در روش پیشنهادی سعی بر این است که کلیه مشکلات و نواقص روش تابع دستور و نگاشت بیتی مرتفع گردد.

واژه‌های کلیدی: بانک اطلاعات XML، کنترل دسترسی، امنیت، نگاشت بیتی.

  • مقدمه

اکثر نرم‌افزارهای کاربردی تجاری، سیستم‌های تبادل داده، و شرکت‌های مختلف داده‌های ساختیافته‌ی خود را در بانک‌های اطلاعات رابطه‌ای نگهداری می‌کنند. بانک‌های اطلاعات رابطه‌ای نمونه خوبی از بانک‌های اطلاعات ساختیافته هستند. بانک‌های اطلاعات نیمه ساختیافته مشابه بانک‌های سنتی شِمای ثابتی ندارند. داده‌های نیمه ساختیافته، خود تعریف می‌باشند و می‌توانند مدل ناهمگون‌تری نسبت به داده‌های ساختیافته داشته باشند. زبان نشانه‌گذاری توسعه‌پذیر XML تکنیک مناسبی برای مدل‌سازی چنین داده‌هایی است ، هر چند داده‌های ساختیافته و غیرساختیافته نیز می‌تواند در قالب XML ذخیره شود. نمایش داده‌های غیر ساختیافته به صورت XML قابلیت‌های بسیاری را در اختیار کاربران می‌گذارد. ویژگی غیر ساختیافته بودن اطلاعات و انعطاف‌پذیری XML و همچنین همه‌گیر شدن استفاده از آن باعث شده است که در بانک‌های اطلاعات نیز مورد توجه قرار گیرد. در این میان دسترسی به اطلاعات و امنیت اطلاعات مبادله شده بسیار مورد توجه می‌باشد.

جهت برقراری امنیت در بانک اطلاعات XML مدل‌ها، مکانیزم‌ها و روش‌هایی وجود دارد. در حال حاضر تنها مدل‌هایی که در برقراری امنیت در بانک اطلاعات XML استفاده می‌شود مدل‌های کنترل دسترسی می‌باشند. مطابقت مدل‌های کنترل دسترسی با مستندات XML و نیز چگونگی استفاده از این مدل‌ها در بانک اطلاعات XML در این پایان‌نامه تشریح شده است.

بیشتر کنترل‌های دسترسی مرسوم شامل لیست‌های کنترل دسترسی ، لیست‌های قابلیت  و ماتریس‌‌های کنترل دسترسی هستند. هنگامی که درباره امنیت یک سیستم صحبت می‌شود “کنترل دسترسی” جنبه‌های بسیاری را شامل می‌شود. کنترل دسترسی باید رسا و قابل فهم باشد و بتواند امنیت دسترسی به داده‌های مستقر در یک مکان را پشتیبانی نماید. همچنین در بسیاری از سیستم‌ها همچون سیستم‌های تراکنشی تجاری و بایگانی‌های پزشکی که شامل داده‌های حساس می‌باشند، کنترل دسترسی در پایین‌ترین سطح (عنصر و یا صفت) مورد نیاز است.

کارهای بسیار زیادی برای توصیف کنترل دسترسی روی مستندات XML از چند سال قبل انجام شده است. برخی از این کوشش‌ها عبارتند از: تعریف و اجرای خط‌مشئ‌های کنترل دسترسی بر روی منابع XML ، کنترل دسترسی به مستندات XML توسط تعیین سطوح مجوزها و خط‌مشئ‌های انتشار مجوزها ، توصیف کنترل دسترسی برای اسناد XML که ارتباط معنایی با هم دارند  و تعریف یک سیستم کنترل دسترسی در پایین‌ترین سطح برای مستندات XML . کنترل دسترسی در پایین‌ترین سطح شامل توصیف موضوع‌های مجوز (کاربران یا گروه‌های کاربری و یا کامپیوترها)، اشیاء مورد دسترسی (المان‌ها و محتوای المان‌ها) و تعیین مجوزهای دسترسی می‌باشد. تمرکز در این کار عموماً بر روی توصیف یک زبان برای تعیین محدودیت‌های کنترل دسترسی به مستندات XML و همچنین توصیف انواع مختلف خصوصیات و خط‌مشئ‌های مرتبط با آن می‌باشد.

در این پایان‌نامه روشی جدید مبتنی بر نگاشت بیتی  و تابع دستور  جهت کنترل دسترسی در بانک اطلاعات XML پیشنهاد شده است. در روش پیشنهادی کنترل دسترسی را در پایین‌ترین سطح ایجاد می‌کنیم. همچنین در روش پیشنهادی سعی شده است که کنترل دسترسی بامعنی ایجاد گردد. کنترل دسترسی با معنی را با استفاده از الگوریتمی که نقش‌ها را به نگاشت بیتی تبدیل می‌کند مهیا می‌کنیم. در این روش تلاش شده است که مشکلات و نواقص روش تابع دستور و نگاشت بیتی مرتفع گردد.

در فصل اول این پایان‌نامه پس از معرفی اجمالی بانک اطلاعات XML ، به امنیت در بانک اطلاعات XML می‌پردازیم. در فصل دوم مدل‌های کنترل دسترسی که برای بانک اطلاعات XML معرفی شده‌اند را بررسی می‌کنیم. در فصل سوم روش پیشنهادی ارائه می‌گردد. در فصل چهارم به پیاده‌سازی و ارزیابی روش پیشنهادی می‌پردازیم، و مقایسه‌ای بین مدل‌های مختلف کنترل دسترسی و روش پیشنهادی جهت استفاده در بانک‌های اطلاعات XML انجام خواهد گرفت. در فصل پایانی به نتیجه‌گیری و کارهای آتی می‌پردازیم.

  • آشنایی با XML

زبان XML در سال 1997 توسط کنسرسیوم وب برای رفع محدودیت‌های موجود در HTML و اضافه کردن قابلیت‌های جدید بوجود آمد . تفاوت اصلی XML با HTML در این است که XML سعی دارد داده‌ها را طوری نشانه‌گذاری کند که معنای آنها حفظ شود و در حالیکه HTML داده‌ها را طوری نشانه‌گذاری می‌کند که قابل نمایش برای مرورگرها باشد. در واقع XML یک استاندارد باز می‌باشد و تاکید آن بر روی معنای داده‌هاست در حالیکه تأکید HTML بر نمایش داده می‌باشد. XML. یک استاندارد پایه است که وابستگی به رسانه‌ها، سیستم عامل‌ها و دیگر سیستم‌ها را ندارد. به منظور حفظ معنای داده‌ها، XML ابر داده که توصیف کننده داده می‌باشد را نیز همراه آنها ذخیره می‌کند.

XML زیر مجموعه ساده شده‌ای از زبان SGML می‌باشد. زبان SGML یک زبان عمومی و پیچیده برای نشانه‌گذاری داده‌هاست که در دهه 80 بوجود آمد و پدر زبان‌های نشانه‌گذاری محسوب می‌شود. قابلیت‌های زیاد این زبان آن را بیش از اندازه پیچیده کرده است، بطوری که کنسرسیوم وب آن را بعنوان جانشین HTML مناسب ندانسته و تصمیم گرفت زیر مجموعه ساده شده‌ای از آن را با نام XML جانشین HTML کند. زبان XML در واقع یک ابر زبان نامیده می‌شود. چرا که کاربر بسته به نیازهایی که دارد می‌تواند با استفاده از آن زبان نشانه‌گذاری جدیدی برای داده‌هایش ایجاد کند.

XML همچنین قادر است ساختار داده‌های ذخیره شده را نیز به‌همراه معنای آنها حفظ کند. این زبان دارای هیچ برچسب از پیش تعریف شده‌‌ای نیست و تمامی برچسب‌ها برحسب نیاز توسط کاربر تعریف می‌شوند. قابلیت‌های XML و اجزاء همراه آن، این زبان را به زبان قابل حمل و استاندارد برای کاربردهای مختلف تبدیل کرده است.

فایل‌های XML دارای قابلیت متنی هستند به‌طوری که می‌توان آنها را در ویرایشگرهای متنی ویرایش کرد. یک فایل در XML از دو قسمت متن و علائم نشانه‌گذاری تشکیل شده است که در قسمت متن داده‌های اصلی ذخیره می‌شود و در قسمت علائم نشانه‌گذاری، ابرداده‌ توصیف کننده متن قرار می‌گیرد. XML از یک سو با ذخیره فایل‌هایش در قالب متنی و استفاده از علائم نشانه‌گذاری‏ فهم معنای داده‌های ذخیره شده را برای انسان ممکن می‌سازد و از سوی دیگر با در اختیار قرار دادن این فایل‌ها در یک قالب ساختیافته برای برنامه‌ها، پردازش آن را برای کامپیوتر ساده می‌کند.

ادامه مطلب...
پایان نامه پیش بینی بهره کشی و خوشه بندی آسیب پذیری­ ها بوسیله­ متن کاوی

پایان نامه­ کارشناسی ارشد در رشته­ مهندسی کامپیوتر- نرم ­افزار

عنوان:پیش بینی بهره کشی و خوشه بندی آسیب پذیری­ ها بوسیله­ متن کاوی

تعداد صفحات : 111

 

چکیده:

آسیب پذیری­های نرم افزار می­تواند منجر به تلفات مالی و اطلاعاتی شود. به علت محدود بودن منابع مالی و انسانی، اولویت دهی به آسیب­ها بسیار مورد توجه می­باشد. پیش از این پژوهش، تعداد زیادی از محققان آسیب پذیری­ها را براساس دانش­های تجربی و آماری، رده بندی کرده­اند. اماگاهی طبیعت متغییر آسیب پذیری­ها، فراهم کردن یک معیار رده بندی برای آن­ها را غیر ممکن می­کند.

گزارش­های آسیب پذیری، به طور پیوسته در پایگاه داده­های مختلف ثبت می­شوند. اطلاعات متنی آسیب پذیری­ها، به طور کامل توسط ابزارهای اتوماتیک موجود، مورد استفاده قرار نمی­گیرد. این پژوهش نشان داد که از اطلاعات موجود در متن­ها برای ساخت مدل­های پیش گو می­توان استفاده کرد. متن کاوی ابزاری مناسب برای به دست آوردن اطلاعاتی است که در اخذ تصمیمات مهم مدیریتی موثر می­باشند.

در زمینه پیش بینی بهره کشی با استفاده از متن کاوی، تاکنون فقط یک تحقیق انجام شده است. این تحقیق در KDD2010، با عنوان “فراتر از اکتشافی: آموزش برای، کلاس بندی آسیب پذیری و پیش بینی بهره کشی” ارائه شده است. این تحقیق به سوالات زیر، با استفاده از متن کاوی پاسخ داده است: آیا از آسیب پذیری بهره کشی خواهد شد؟ چه زمانی از آسیب پذیری موجود بهره کشی خواهد شد؟ این مقاله در مقایسه با CVSS(که یکی از متریک­های معروف آسیب پذیری است) به نتایج خوبی رسیده است. در این پژوهش به سوالات فوق و به سوالات جدید زیر دقت بالایی پاسخ داده شده است:

اگر سیستمی مورد بهره کشی قرار گرفته، چه زمانی این بهره کشی آغاز شده است؟ (دقت پاسخ­ها بین 94.5-84%)

اگر سیستمی آسیب پذیر است، چه زمانی بسته اصلاح شده آن از سوی سازندگان ارائه خواهد شد؟ (دقت پاسخ­ها بین 91-68%)

در زمینه خوشه بندی آسیب پذیری­ها، تاکنون تحقیقات زیادی انجام شده است. پایگاه داده OSVDB دارای دسته بندی­های مختلفی برای آسیب پذیری­ها می­باشد، اما هیچ یک از این دسته­ها بر اساس توصیف آسیب پذیری­ها نیست. در این تحقیق آسیب پذیری­ها با استفاده از توصیف­هایشان خوشه بندی شده­اند، که دسته­های حاصل عبارتند از: سرریز بافر، رد سرویس، دستکاری داده، کنترل از راه دور، پیکربندی نامناسب، شکاف در رمز عبور، دسترسی غیر مجاز به اطلاعات، و دسترسی غیر مجاز به سرویس. برای انتساب آسیب پذیری­ها به دسته­های مناسب به صورت دستی به تجربه نیروی انسانی نیاز است و انجام این کار بسیار ملال آور می­باشد. دسته بندی ارائه شده در این پژوهش، امکان ساخت نرم افزاری که بتواند آسیب پذیری­ها را به طور خودکار به دسته­های مناسب نسبت دهد، را فراهم می­کند.

در این پژوهش از دو پایگاه داده معروف آسیب پذیری­ها (OSVDB و CVE)، و اطلاعات تاریخ آسیب پذیری­ها که استفان فری در اختیارمان قرار داد، استفاده شده است. برای پیش بینی بهره کشی از کلاس بندی کننده ­های ماشین بردار پشتیبانی و جنگل تصادفی، و برای انجام خوشه بندی از روش نگاشت خود سازمانده نوخاسته استفاده شده است.

فصل اول: مقدمه

1-1- آسیب پذیری

در مباحث امنیت کامپیوتر، یک آسیب پذیری، ضعفی است که برای مهاجم امکان سوء استفاده از اطلاعات یک سیستم را فراهم می­کند. سالانه هزاران آسیب پذیری کشف و گزارش می­شوند و میلیون­ ها دلار در سرتاسر دنیا صرف مقابله با آسیب پذیری­ ها می­گردد. برای بهره کشی از آسیب پذیری یک سیستم عموماً به سه عامل نیاز است: حساسیت یا نقصی در سیستم، دسترسی مهاجم به نقص و توانایی مهاجم برای بهره کشی از نقص.

1-1-1- تعریف آسیب پذیری

آسیب پذیری از جمله مفاهیمی است که منابع مختلف تعاریف متفاوتی را برایش ارائه داده­اند. از جمله این تعاریف می­توان به موارد زیر اشاره کرد:

ISO 27005: ضعف یک دارایی یا گروهی از دارایی­ها که می­تواند توسط فرد یا گروهی از افراد مورد بهره کشی قرار گیرد . در این تعریف دارایی به معنای هر چیزی که برای سازمان ارزشی داشته باشد، است، برای مثال منابع اطلاعاتی مورد حمایت سازمان.

IETF RFC 2828: یک عیب یا ضعف در طراحی، پیاده سازی، عملکرد یا مدیریت سیستم، که می­تواند باعث بهره کشی، در جهت نقض سیاست امنیتی سیستم شود .

کمیته ملی سیستم­های امنیتی ایالات متحده آمریکا، در دستورالعمل CNSSشماره 4009، در تاریخ 26 آوریل 2010، واژه نامه تضمین اطلاعات ملی: آسیب پذیری ضعف در یک IS، روش­های امنیتی سیستم، کنترل­های داخلی یا پیاده سازی است، که می­تواند منجر به بهره کشی شود .

ENISA: وجود یک ضعف طراحی یا خطای پیاده سازی که بتواند منجر به رویداد غیر منتظره نامطلوبی شود، که این رویداد امنیت سیستم کامپیوتر، شبکه، برنامه یا پروتکل را به خطر اندازد .

گروه باز: حالتی که قدرت مهاجم بیش از قدرت مقاومت در برابر آن باشد .

تحلیل عاملی از خطر اطلاعات(FAIR): احتمال اینکه یک دارایی قادر به مقاومت در برابر عوامل خطر نباشد .

امنیت داده و کامپیوتر، فرهنگ لغات مفاهیم و لغات استاندارد، نویسندگان دنیس لانگلی و مایکل شین، استاکتون پرس، ISBN 0-935859-17-9:

  1. در امنیت کامپیوتر، ضعف کارکرد امنیتی سیستم­های خودکار شده، کنترل­های ناظران، کنترل­های اینترنت و غیره، که بتوانند بوسیله یک مهاجم با دسترسی غیر مجاز به اطلاعات، پردازش اطلاعات را مختل کنند.
  2. در امنیت کامپیوتر، یک ضعف در لایه فیزیکی، سازمان، کارکرد، کارکنان، مدیریت، سرپرستی، سخت افزار یا نرم افزار که امکان بهره کشی از آن­ها با هدف آسیب رساندن به سیستم یا فعالیت­ وجود داشته باشد.
  3. در امنیت کامپیوتر، هر ضعف یا نقص موجود در یک سیستم، حمله، رویداد مضر یا فرصت دسترسی برای یک عامل تهدید کننده، که امکان تهدید را برای عامل فراهم کند، را آسیب پذیری گویند.

2-1-1- کلاس بندی آسیب پذیری ها

آسیب پذیری­ها، براساس نوع دارایی به دسته­های زیر تقسیم می­شوند :

  • سخت افزار، برای مثال: حساسیت به رطوبت، حساسیت به گرد و غبار، استعداد ابتلا به ذخیره سازی محافظت نشده.
  • نرم افزار، برای مثال: تست ناکافی، فقدان پیگیری.
  • شبکه، برای مثال: خطوط ارتباطی محافظت نشده، معماری شبکه ناامن.
  • کارکنان، برای مثال: روند جذب ناکافی، آگاهی های امنیتی ناکافی.
  • مکان، برای مثال: منطقه مستعد سیل،منبع برق غیر قابل اعتماد.
  • سازمانی، برای مثال: عدم پیگیری منظم، عدم تداوم برنامه­ ها.

3-1-1- علت­های ایجاد آسیب پذیری­ها

 برخی از منابع و علت­ های ایجاد آسیب پذیری­ ها عبارتند از:

  • پیچیدگی سیستم: احتمال وجود نقص و نقاط دسترسی ناخواسته در سیستم­های بزرگ پیچیده، بیشتر است .
  • متعارف بودن سیستم: استفاده از کدها، نرم افزارها، سیستم عامل­ها یا سخت افزارهای معمول و معروف، احتمال اینکه یک مهاجم بتواند به دانش و ابزار، جهت بهره کشی از نقص موجود دسترسی پیدا کند، را افزایش می­دهد .
  • اتصال: اتصالات فیزیکی، امتیازات، پورت­ها، پروتکل­ها و سرویس­های بیشتر و افزایش مدت زمان هر یک از آن­ها، دسترسی پذیری به آسیب پذیری­ها را افزایش می­دهد .
  • نقص در مدیریت پسوردها: کاربران کامپیوتر از پسوردهای ضعیفی که با تلاش اندکی کشف می­شوند، استفاده می­کنند یا اینکه آن­ها را در برخی برنامه­ها ذخیره می­کنند، و این پسوردها بین بسیاری از برنامه­ ها و صفحات وب­ مشترک است .
  • نقص­های طراحی در سیستم عامل­ های اصلی: طراحان سیستم عامل ­ها، عموماً سیاست­ هایی که کمتر کاربر/مدیر سیستم را درگیر کنند را برمی­گزینند. برای مثال سیستم عامل­ها، سیاست­ هایی مثل پیش فرض­های اعطای مجوز به هر برنامه و دسترسی کامل کاربران به سیستم را دارند .این نقص­های سیستم عامل­ها، به ویروس­ها و بدافزارها، اجازه اجرای دستوراتی از طرف مدیر را می­دهد .
  • مرور وب­سایت­ های اینترنت: برخی وب سایت­ های اینترنتی دارای جاسوس­ها یا تبلیغات خطرناکی هستند، که می­توانند به صورت خودکار روی سیستم­ های کامپیوتری نصب شوند. بعد از بازدید از این وب سایت­ها سیستم ­ها آلوده می­شوند، اطلاعات شخصی جمع آوری شده و برای شخص ثالث فرستاده می شود .
  • اشکلات نرم افزاری: اشکلات قابل بهره کشی در بسیاری برنامه­ های نرم افزاری وجود دارد. اشکلات نرم افزاری ممکن است به مهاجمان اجازه سوء استفاده از برنامه را بدهند .
  • ورودی­ های کاربر کنترل نشده: برنامه­ها فرض می­کنندکه همه­ی ورودی­های کاربر امن است. برنامه­هایی که ورودی­ های کاربر را بررسی نمی­کنند، در واقع امکان اجرای مستقیم دستورات ناخواسته و دستکاری در پایگاه داده­ها را فراهم می­کنند .

4-1-1- شناسایی و حذف آسیب پذیری­ها

 تلاش­ های زیادی در جهت ساخت نرم افزارهایی با قابلیت کشف خودکار آسیب پذیری­های سیستم ­های کامپیوتری انجام شده است. اگرچه نرم افزارهای موجود می­توانند در برخی موارد دید کلی خوبی را نسبت به آسیب پذیری­ های سیستم فراهم کنند، اما نمی­توانند جایگزین بررسی انسانی روی آسیب پذیری­ها شوند. تکیه بر گزارشات اسکنرها، دید محدود همراه با تشخیص­های اشتباه زیاد، به همراه خواهد داشت. آسیب پذیری­ها در همه­ ی نرم افزارهای اساسی مثل سیستم عامل­ ها وجود دارند. گاهی اوقات تنها راه حل اساسی مقابله با آن­ها نصب بسته نرم افزاری اصلاح شده آن محصول است و در فاصله زمانی کشف تا ارائه بسته نرم افزاری با روش ­هایی مثل استفاده از دیوار آتش و یا نظارت مستقیم بر کنترل­های دسترسی توسط ناظران سیستم ­ها، می­توان جلوی سوء استفاده از سیستم را گرفت. لازم به ذکر است که روش­های نظارت مستقیم بر سیستم ها، هم از نظر مالی و هم از نظر نیروی انسانی بسیار هزینه بر هستند.

2-1- مفاهیم اولیه­ مورد نیاز

1-2-1- متن کاوی

مشکلی که دنیای امروز با آن رو به رو است، کمبود یا نبود اطلاعات نیست بلکه کمبود دانشی است که از این اطلاعات میتوان حاصل کرد. میلیون­ها صفحه­ وب، میلیون­ها کلمه در کتابخانه­های دیجیتال و هزاران صفحه اطلاعات در هر شرکت، تنها بخشی از این منابع اطلاعاتی هستند. اما نمی­توان به طور مشخص منبعی از دانش را در این بین معرفی کرد. دانش حاصلی است که از نتیجه گیری و فکر و تحلیل بر روی اطلاعات به دست می­آید. هدف داده کاوی مشخص کردن روابط میان داده­ های موجود در پایگاه داده­ها و استخراج دانش از میان آن­ها می­باشد. زمانی که داده­های موجود ساخت یافته باشند استفاده از روش­های داده کاوی و کسب دانش از آن­ها ساده است. اما امروزه بخش زیادی از اطلاعات به صورت متن نگهداری می­شود و متن­ ها داده­ هایی غیر ساخت یافته هستند. یک فرد برای دریافت دانش از اطلاعات یک متن، بایستی ابتدا آنرا درک کند، تا بفهمد چه معانی و مفاهیمی در آن موجود است و چه ارتباطی میان مفاهیم وجود دارد. با این حال عصر تکنولوژی به دنبال خودکارسازی است، حتی اگر این کار “درک معنی متن” باشد .

متن کاوی تمام فعالیت­ هایی که به نوعی به دنبال کسب دانش از متن هستند را شامل می‌گردد. تحلیل داده ­های متنی توسط روش­های یادگیری ماشین، بازیابی اطلاعات هوشمند، پردازش زبان طبیعی، همگی در دسته فعالیت­های متن کاوی قرار می‌گیرند. تصویر 1-1 مراحل متعارف متن کاوی را نشان می­دهد. اولین گام در متن کاوی استفاده از روش­هایی برای ساختارمند نمودن متن­ها است. متن از مجموعه­ای از کلمات و عبارات زبان طبیعی تشکیل شده است. عموماً روش­های متن کاوی ابتدا کلمات و عبارات، را از متن استخراج می­کنند و سپس آن­ها را مورد پردازش قرار می­دهند، برای مثال برخی کلمات مثل حروف اضافه و ضمایر حذف، و کلمات باقی مانده ریشه­ یابی می­شوند. سپس مشخصات استخراج شده از متن­ها به روش­های مختلفی مقداردهی می­شوند، از میان این روش­ها می­توان به مقداردهی دودویی (بیان­گر ظاهر شدن/ نشدن کلمه در متن است)، فراوانی کلمه در متن، وزن TF-IDFاشاره کرد .در این تحقیق از روش وزن­دهی TF-IDFاستفاده شده است، که در قسمت بعد درباره این روش توضیح داده خواهد شد. با استفاده از مقادیر به دست آمده بردارهای ویژگی برای داده­ها ساخته و از بین مجموعه­ی داده­ ها، داده­ های آموزش و تست کلاس بندی کننده انتخاب می­شوند. پس از آن یک روش کلاس بندی انتخاب می­شود. کلاس بندی کننده با استفاده از داده­ های آموزش، آموزش داده و با استفاده از داده ­های تست ارزیابی می­شود.



ادامه مطلب...
پایان نامه ارائه یک مدل مبتنی بر خصیصه جهت تحلیل احساس موجود در نوشتجات

پایان نامه کارشناسی ارشد در رشته مهندسی کامپیوتر (نرم افزار)

عنوان: ارائه یک مدل مبتنی بر خصیصه جهت تحلیل احساس موجود در نوشتجات

تعداد صفحات : 77

برخی نویسندگان داده کاوی را به عنوان ابزاری برای جستجو کردن اطلاعات سودمند در حجم زیادی از داده ها تعریف می کنند. برای انجام فرایند داده کاوی با زمینه های گوناگون تحقیقی مواجه می‌شویم، مانند پایگاه داده، یادگیری ماشین و آمار. پایگاه داده‌ها برای تحلیل کردن حجم زیادی از داده‌ها ضروری هستند. یادگیری ماشین، یک ناحیه هوش مصنوعی است که با ایجاد تکنیک‌هایی امکان یادگیری به وسیله تحلیل مجموعه‌های داده‌ای را به کامپیوترها می‌دهند. تمرکز این روش‌ها روی داده سمبولیک است و با آنالیز داده‌های تجربی سر و کار دارد. پایه آن تئوری آماری است. در این تئوری عدم قطعیت و شانس به وسیله تئوری احتمال مدل می‌شوند. امروزه بسیاری از روش‌های آماری در زمینه داده کاوی استفاده می‌شوند. می‌توان گفت که متن کاوی از تکنیک‌های بازیابی اطلاعات، استخراج اطلاعات همچنین پردازش کردن زبان طبیعی استفاده می‌کند و آن‌ها را به الگوریتم‌ها و متدهای داده کاوی، یادگیری ماشین و آماری مرتبط می‌کند. با توجه به ناحیه‌های تحقیق گوناگون، بر هر یک از آن‌ها می‌توان تعاریف مختلفی از متن کاوی در نظر گرفت در ادامه برخی از این تعاریف بیان می‌شوند:

متن کاوی = استخراج اطلاعات: در این تعریف متن کاوی متناظر با استخراج اطلاعات در نظر گرفته می‌شود (استخراج واقعیت‌ها از متن).

متن کاوی = کشف داده متنی: متن کاوی را می‌توان به عنوان متدها و الگوریتم‌هایی از فیلدهای یادگیری ماشین و آماری برای متن‌ها با هدف پیدا کردن الگوهای مفید در نظر گرفت. برای این هدف پیش پردازش کردن متون ضروری است. در بسیاری از روش‌ها، متدهای استخراج اطلاعات، پردازش کردن زبان طبیعی یا برخی پیش پردازش‌های ساده برای استخراج داده از متون استفاده می‌شود، سپس می‌توان الگوریتم‌های داده کاوی را بر روی داده‌های استخراج شده اعمال کرد.

متن کاوی = فرایند استخراج دانش: که در بخش قبلی به طور کامل توضیح داده شده است و در اینجا دیگر بیان نمی‌شود. در این تحقیق ما بیشتر متن کاوی را به عنوان کشف داده متنی در نظر می‌گیریم و بیشتر بر روی روش‌های استخراج الگوهای مفید از متن برای دسته‌بندی مجموعه‌ های متنی یا استخراج اطلاعات مفید، تمرکز می‌کنیم.

در دنیای کنونی مشکل کمبود اطلاعات نیست، بلکه مشکل کمبود دانشی است که از این اطلاعات می توان بدست آورد. میلیونها صفحه ی وب، میلیونها کلمه در کتابخانه‌های دیجیتال و هزاران صفحه اطلاعات در هر شرکت، تنها چند دست از این منابع اطلاعاتی هستند. اما نمی‌توان به طور مشخص منبعی از دانش را در این بین معرفی کرد. دانش خلاصه‌ی اطلاعات است و نیز نتیجه گیری و حاصل فکر و تحلیل بر روی اطلاعات.

داده کاوی، یک روش بسیار کارا برای کشف اطلاعات از داده‌های ساختیافته‌ای که در جداول نگهداری می‌شوند، است. داده کاوی، الگوها را از تراکنش‌ها، استخراج می‌کند، داده را گروه‌بندی می‌کند و نیز آنرا دسته‌بندی می‌کند. بوسیله‌ی داده کاوی می‌توانیم به روابط میان اقلام داده‌ای که پایگاه داده را پر کرده‌اند، پی ببریم. در عین حال ما با داده کاوی مشکلی داریم و آن عدم وجود عامیت در کاربرد آن است. بیشتر دانش ما اگر به صورت غیر دیجیتال نباشند، کاملاً غیر ساختیافته اند. کتابخانه‌های دیجیتال، اخبار، کتابهای الکترونیکی، بسیاری از مدارک مالی، مقالات علمی و تقریباً هر چیزی که شما می‌توانید در داخل وب بیابید، ساختیافته نیستند. در نتیجه ما نمی‌توانیم آموزه‌های داده کاوی را در مورد آنها به طور مستقیم استفاده کنیم. با این حال، سه روش اساسی در مواجهه با این حجم وسیع از اطلاعات غیر ساختیافته وجود دارد که عبارتند از: بازیابی اطلاعات، استخراج اطلاعات و پردازش زبان طبیعی.

بازیابی اطلاعات: اصولاً مرتبط است با بازیابی مستندات و مدارک. کار معمول دربازیابی اطلاعات این است که با توجه به نیاز مطرح شده از سوی کاربر، مرتبط ترین متون و مستندات و یا در واقع بقچه‌ی کلمه را ازمیان دیگر مستندات یک مجموعه بیرون بکشد. این یافتن دانش نیست بلکه تنها آن بقچه‌ای از کلمات را که به نظرش مرتبط‌تر به نیاز اطلاعاتی جستجوگر است را به او تحویل می‌دهد. این روش به واقع دانش و حتی اطلاعاتی را برایمان به ارمغان نمی‌آورد.

پردازش زبان طبیعی: هدف کلی پردازش زبان طبیعی رسیدن به یک درک بهتر از زبان طبیعی توسط کامپیوترهاست. تکنیک‌های مستحکم و ساده‌ای برای پردازش کردن سریع متن به کار می‌روند. همچنین از تکنیک‌های آنالیز زبان شناسی نیز برای پردازش کردن متن استفاده می‌شود.

استخراج اطلاعات: هدف روش‌های استخراج اطلاعات، استخراج اطلاعات خاص از سندهای متنی است. استخراج اطلاعات می‌تواند به عنوان یک فاز پیش پردازش در متن‌کاوی بکار برود. استخراج اطلاعات عبارتند از نگاشت کردن متن‌های زبان طبیعی (مثلا گزارش‌ها، مقالات journal، روزنامه‌ها، ایمیل‌ها، صفحات وب، هر پایگاه داده متنی و…..) به یک نمایش ساختیافته و از پیش تعریف شده یا قالب‌هایی که وقتی پر می‌شوند، منتخبی از اطلاعات کلیدی از متن اصلی را نشان می‌دهند. یکبار اطلاعات استخراج شده و سپس اطلاعات می‌توانند در پایگاه داده برای استفاده‌های آینده، ذخیره شوند.

2-1- کاربردهای متن کاوی

در این قسمت تعدادی از کاربردهای متن‌کاوری را بیان خواهیم کرد. امروزه با وجود حجم زیادی از اطلاعات متنی، متن‌کاوی از جمله روش های تحقیقی-تجاری می‌باشد که از اهمیت ویژه‌ای برخوردار است. همه شرکت‌های تجاری، تولید کنندگان کالاها، ارائه کنندگان خدمات و سیاست‌مداران قادرند با بهره‌گیری از فرایند متن‌کاوی دانش مفیدی را به عنوان بازخورد از کالا، خدمات و عملکرد خود دریافت کنند. از جمله کاربردهای متن کاوی می‌توان به موارد زیر اشاره نمود:    

1.شناساییspam: آنالیز کردن عنوان و محتوای یک ایمیل دریافتی، برای تشخیص اینکه آیا ایمیل می‌تواند spam باشد یاخیر.

2 .نظارت :یعنی نظارت کردن رفتار شخص یا گروهی از انسان‌ها به صورت پنهان. پروژه‌ای به نام ENCODA تلفن، اینترنت و دیگر وسایل ارتباطی را برای شناسایی تروریسم نظارت می‌کند.

3. شناسایی نامهای مستعار: نام‌های مستعار در مراقبت‌های پزشکی برای شناسایی تقلب‌ها آنالیز می‌شوند. برای مثال یک صورت حساب ممکن هست با نام John Smith، J. Smith و Smith, John ارائه شود. از این طریق یا با استفاده از روش‌های دیگری مطالبه کنندگان امکان سوءاستفاده را خواهند یافت و مطالبات حق بیمه زیادی تحت نام‌های مستعار مختلف دریافت می‌کنند. استفاده از متن‌کاوی برای تشخیص این نام‌های مستعار می‌تواند در یافتن تقلب به شرکت‌های بیمه کمک فراوانی کند.

4.خلاصه سازی: منظور از خلاصه سازی، روند استخراج و ارائه مجموعه‌ای مفاهیم پایه‌ای از متن، تنها در چند خط است. این کار می‌تواند بررسی محتویات مستندات را برای کاربران ساده‌تر کند و آنها را در مسیر رسیدن به آنچه نیاز دارند، سرعت بخشد.

5. روابط میان مفاهیم: از جمله واقعیتهایی که می توان از یک مجموعه متون دریافت، ارتباط و وابستگی برخی مفاهیم با مفاهیم دیگراست. این واقعیات به طور مثال می‌تواند بگوید که پدیدار شدن بعضی کلمات ممکن است که وابسته باشد به ظاهر شدن بعضی دیگر از کلمات. منظور این است که هرگاه مجموعه ی اول کلمات را ببینیم، می‌توانیم انتظار داشته باشیم که مجموعه‌ی دوم لغات را نیز در ادامه مشاهده خواهیم کرد. این مفهوم نیز از داده کاوی در دیتابیس به امانت گرفته شده است.

6. یافتن وتحلیل رفتارها: برای شرح این کاربرد فرض کنید که مدیر یک کمپانی تجاری هستید. مشخصاً شما باید همواره بر فعالیتهای رقیبانتان نظارت داشته باشید. این می‌تواند هر نوع اطلاعاتی باشد که شما از اخبار، معاملات بورس و یا از مستندات تولید شده توسط همان کمپانی رقیب گرفته‌اید. امروزه اطلاعات به طور فزآینده‌ای در حال افزایش است، مدیریت تمامی این منابع داده‌ای قطعاً تنها به کمک چشمان ممکن نیست. متن‌کاوی این امکان را می‌دهد که به طور اتوماتیک رفتارها و تغییرات جدید را بیابید. در واقع آنچه اصولاً باید از متن‌کاوی انتظار برود این است که به شما بگوید چه اخباری در میان گستره‌ای از اخبار به آنچه می خواهید مرتبط است و در این میان کدام خبر جدیداست، چه پیشرفتهایی در زمینه‌ی کاری شما صورت می گیرد و علایق و رفتارهای فعلی چگونه است و با چه روندی تغییر می‌کند. با استفاده از این اطلاعات، مدیران قادرند از اطلاعات کشف شده برای بررسی وضعیت رقیب سود جویند.

7. تحلیل احساس : در این کاربرد هدف از متن کاوی تشخیص احساس نویسنده متن است. درجه رضایت یا خوشحالی و ناراحتی نویسنده تشخیص داده می‌شود. این رساله به بررسی متن کاوی به منظور تحلیل احساس موجود در متون خواهد پرداخت، لذا در ادامه با جزئیات بیشتری تحلیل احساس در متون را بررسی خواهیم کرد.

همه اطلاعات متنی را می‌توان به دو دسته:حقایق و عقاید دسته بندی کرد. حقایق عبارات علمی‌ و عملی درباره موجودیت‌ها، رویدادها و ویژگی‌های آنها هستند که بصورت عینی و واقعی در دنیای بیرون وجود دارند یا به وقوع پیوسته‌اند. عقاید عبارات غیر عینی و ذهنی هستند که نظرات، ارزیابی‌ها یا احساسات افراد را درباره یک موجودیت، رویداد و ویژگی‌های آنها بیان می‌کنند .

شکل 1-1 مثالی را برای هر کدام بیان میکند. در این رساله تنها به یک جنبه از این مفهوم یعنی احساسات خواهیم پرداخت.

قبل از سال 2000 به دلیل کمبود منابع داده‌ای و کمبود متون حاوی نظرات و عقاید در تارنمای گسترده جهانی تحقیقات اندکی در این زمینه به انجام رسیده است. امروزه با گسترش اینترنت و همه‌گیر شدن شبکه‌های اجتماعی، کاربران می‌توانند نظرات خود درباره محصولات یا خدمات را در سایت‌های تجاری، شبکه‌های اجتماعی، وبلاگ‌ها بیان کنند؛ صفحات وب متون زیادی را در بر دارند که مشتمل بر نظرات، عقاید، ارزیابی کاربران پیرامون یک کالا یا خدمات خاص هستند. اطلاعاتی که از این نوع داده‌ها قابل دست‌یابی است، برای شرکت‌های سازنده و همچنین سازمان‌های ارائه کننده خدمات بسیار مفید و گاهی ضروری خواهند ‌بود. همچنین برای کاربرانی که قصد انتخاب خدمات یا یک نوع کالا را دارند راهنمایی مفیدی را ارائه می‌دهند. شخصی را در نظر بگیرید که قصد دارد موبایل یا دوربین دیجیتالی بخرد، برای آگاهی از کیفیت دوربین و مطلوبیت خدمات شرکت سازنده بدون شک به پرسش و جمع‌آوری اطلاعات از اطرافیان روی خواهد آورد، ولی امروزه با رشد اینترنت می‌توان بصورت آنلاین نظرات و تجربیات صدها نفر را درباره یک کالای خاص مطالعه کرد و برای تصمیم گیری از آنها مدد گرفت.

امروزه تعدد و گوناگونی منابع اینترنتی حاوی نظرات و احساسات کاربران به حدی زیاد شده است که یافتن و ارزیابی آنها کار بسیار پیچده‌ای است. در بسیاری موارد نظرات و عقاید کاربر در یک پست طولانی پنهان شده است. برای استخراج نظرات و عقاید درباره یک موجودیت باید در ابتدا منابع اینترنتی مرتبط با آن را یافت سپس متن مورد نظر خوانده شود، جملات بیان کننده نظرات و عقاید کاربر از متن استخراج شوند، خلاصه سازی شوند و به فرم قابل استفاده تبدیل شوند. از جمله مشکلاتی که در این زمینه وجود دارد حجم زیاد داده می‌باشد. در صفحه توییتر شخصی جاستین بیبر روزانه 300000 نظر ثبت می‌شود. این حجم از داده‌ها میتوانند اطلاعات مفیدی را برای شرکت‌ها و همچنین مشتری‌ها به همراه داشته باشند؛ ولی پردازش آنها بصورت دستی و انسانی غیر ممکن می‌باشد، لذا طراحی یک روش اتوماتیک برای تحلیل متن و استخراج نظرات و عقاید موجود در متن ضروری است. در همین راستا تلاش‌های فراوانی صورت گرفته است، مثلا در کشور آمریکا 20 تا 30 شرکت به ارائه خدمات تخصصی تحلیل احساس می‌پردازند .

در این رساله روشی برای تحلیل احساس ارائه می‌شود. روش پیشنهادی سعی در ارائه مجموعه مناسبی از خصیصه‌ها را دارد به نحوی که بتوان به دقت بهتری در ارزیابی اتوماتیک متون دست یافت، همچنین تعداد خصیصه‌ها در حد متناسبی حفظ شود. برای انتخاب خصیصه‌ها از الگوریتم‌های ساده و با حداقل پیچیدگی زمانی بهره می‌بریم و نیاز به استفاده از الگوریتم انتخاب خصیصه با پیچیدگی زمانی بالا مرتفع شده است.

 

ادامه مطلب...
پروژه بررسي سيستم سوخت‌ رساني موتورهاي ديزل
دسته: تحقیقات مکانیکی
فرمت فایل: WORD (قابل ویرایش)
تعداد صفحات پروژه: 115
بخشی از مقدمه:
احتراق Combustion 
احتراق نخستين منبع كاربردي انرژي است كه بشر بدان دست يافته است احتراق گذشته از دادن گرما و نور، انسان را توانا ساخت كه فلزات را بكار گيرد. امروزه بيش از 95 درصد انرژي مصرفي جهان از راه احتراق فراهم مي‌شود. با وجود پژوهش‌هاي فراوان براي دست يافتن به انرژي‌هاي جانشين، شكي نيست كه در آينده نيز احتراق همچنان مهم خواهد ماند بخصوص در مواردي مانند كاربردهاي حمل و نقل و جابجائي كه به روش انبارسازي و توليد انرژي نياز دارد. براي بدست آوردن انرژي مكانيكي از عمل احتراق، “موتورهاي احتراقي” بوجود آمد. 
موتورهاي احتراقي (Combustion engines) 
موتورهاي احتراقي امروزه در صنعت، حمل و نقل، كشاورز و …… نقش مهمي را ايفاء مي‌كنند و براي بحركت درآوردن وسائلي مانند: كشتي، هواپيما، ماشينهاي كشاورزي، ماشينهاي ساختماني و راهسازي و غيره از آن استفاده مي‌شود. موتورهاي احتراقي بطور كلي انرژي حرارتي نهفته در سوخت را به انرژي مكانيكي تبديل مي‌كنند. 
موتورهاي احتراقي به دو دسته عمده تقسيم مي‌شوند كه عبارتند از: 
1-موتورهاي احتراق خارجي (برون سوز) External Combustion engines 
2-موتورهاي احتراق داخلي (درون سوز) Internal Combustion engines 
ادامه مطلب...
دستیابی به کیفیت سرویس در شبکه های حسگر بیسیم با استفاده از آتوماتاهای یادگیر سلولی

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر

گرایش : نرم افزار

عنوان : دستیابی به کیفیت سرویس در شبکه های حسگر بیسیم با استفاده از آتوماتاهای یادگیر سلولی

تعداد صفحات : 220

چکیده

کیفیت سرویس در شبکه های حسگر بی سیم نسبت به شبکه های سنتی بسیار متفاوت است. بعضی از پارامترهایی که در ارزیابی کیفیت سرویس در این شبکه ها مورد استفاده قرار می گیرند عبارتند از: پوشش شبکه, تعداد بهینه نودهای فعال در شبکه, طول عمر شبکه و میزان مصرف انرژی. در این پایان نامه سه مسئله اساسی شبکه ها ی حسگر بی سیم مطرح گردیده و با هدف بهبود پارامترهای کیفیت سرویس، برای این مسائل، راه حلهایی کارا با استفاده از روش هوشمند آتوماتاهای یادگیرسلولی ارائه شده است. ابتدا مسئله پوشش محیط در شبکه های حسگر را با استفاده از غیر فعال نمودن نودهای غیر ضروری و فعال نگه داشتن بهینه نودها حل می گردد، تا در مصرف انرژی صرفه جویی به عمل آمده و عمر شبکه افزایش یابد. سپس به مسئله خوشه بندی در شبکه حسگر پرداخته شده و با استفاده از آتوماتاهای یادگیرسلولی, شبکه های حسگر به گونه ای خوشه بندی می شوند که انرژی به صورت یکنواخت در شبکه بمصرف رسیده وعمر شبکه  افزایش یابد. پس از آن با استفاده از آتوماتاهای یادگیر یک روش تجمیع داده های محیط حسگری پیشنهاد می گردد که در مصرف انرژی شبکه صرفه جویی به عمل آورده و عمر شبکه را افزایش می دهد. همه روشهای ارائه شده با استفاده از نرم افزار J-Sim شبیه سازی گردیده اند. نتایج شبیه سازی ها نشان دهنده عملکرد بهتر روشهای پیشنهادی نسبت به روشهای مشابه می باشد.

 

ادامه مطلب...
دانلود پروژه بررسی و ارزیابی قابلیت اطمینان سیستم های قدرت

عنوان پروژه : بررسی و ارزیابی قابلیت اطمینان سیستم های قدرت

تعداد صفحات : ۱۱۴

شرح مختصر پروژه : این پروژه با عنوان بررسی و ارزیابی قابلیت اطمینان سیستم های قدرت برای دانلود آماده شده است .هدف ما از پروژه بررسی و ارزیابی قابلیت اطمینان سیستم های قدرت این است که بهبود روش های مناسب ارزیابی قابلیت اطمینان جهت استفاده در سیستم قدرت را نشان دهیم و اهمیت شاخص های قابلیت اطمینان متعددی را که می تواند ارزیابی گردد توضیح دهیم.محاسبه شاخص های قابلیت اطمینان برای یک دسته بخصوص اطلاعات و شرایط سیستم ممکن است. این شاخص ها می تواند به صورت مقادیر مطلق یا نسبی قابلیت اطمینان سیستم دیده شود.

شاخص های قابلیت اطمینان سیستم قدرت می تواند بوسیله روش های گوناگونی محاسبه شوند. دو روش اصلی، روش تحلیلی و شبیه سازی می باشند. بسیاری از روش ها بر پایه روش تحلیلی می باشند و روش های شبیه سازی نقش کمتری در کاربردهای مشخص دارند. روش های شبیه سازی شاخص های قابلیت اطمینان را بوسیله شبیه سازی فرآیند واقعی و رفتار تصادفی سیستم برآورد می کند.روش های فعلی ارزیابی قابلیت اطمینان معمولاً مربوط به تشخیص کفایت می شوند.

ارزیابی قابلیت اطمینان، نیازمند داده های منطقی و قابل قبول است.سیستم های قدرت در دهه های اخیر همواره در حال پیشرفت بوده اند. نخستین تأکید آنها بر تامین یک منبع قابل اطمینان و اقتصادی انرژی الکتریکی برای مصرف کننده ها می باشد.مسئله اساسی در برنامه ریزی سیستم، برآورد صحیح ظرفیت ذخیره می باشد. مقدار بسیار کم آن، قطعی وسیع و مقدار بسیار زیاد، گرانی را به همراه دارد. نتیجه نامعلوم بودن قابلیت اطمینان واقعی هر تاسیساتی، هدر رفتن بیشتر سرمایه است.

 

قابلیت اطمینان در شبکه قدرت (Power Network Reliability) در واقع یعنی سیستم باید طوری طراحی شود که برای ارائه انرژی قابل اعتماد و از لحاظ اقتصادی مقرون به صرفه باشد.هدف ما این است که بهبود روش های مناسب ارزیابی قابلیت اطمینان جهت استفاده در سیستم قدرت را نشان دهیم و اهمیت شاخص های قابلیت اطمینان متعددی را که می تواند ارزیابی گردد توضیح دهیم.

در ادامه فهرست مطالب پروژه بررسی و ارزیابی قابلیت اطمینان سیستم های قدرت را مشاهده میفرمایید :

ادامه مطلب...
پایان نامه بهبود ساخت و ترکیب قوانین فازی با استفاده از الگوریتم رقابت استعماری

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر 

گرایش : هوش مصنوعی

عنوان : بهبود ساخت و ترکیب قوانین فازی با استفاده از الگوریتم رقابت استعماری

 تعداد صفحات : 106

چکیده

استخراج طبقه­ بند­های عام و قابل فهم از داده، نقش مهمی در بسیاری از حوزه­ ها و مسائل است. تاکنون روش های متعددی برای طبقه ­بندی و تشخیص الگو معرفی شده ­است. یکی از شیوه­ های موفق و منحصربه ­فرد در حوزه طبقه­ بندی و تشخیص الگوی داده­های ورودی، استفاده از تکنیک­های فازی برای تقسیم ­بندی نرم فضای ویژگی و بالطبع استفاده از یک معماری مؤثر در متصل کردن این زیر­فضاها برای تصمیم­ گیری و طبقه ­بندی به­ صورت فازی می­باشد.  اینکه بتوان بهترین و کارا ترین قوانین فازی را از روی داده استخراج کرد هنوز زمینه بسیار مهمی برای محققان است.

در این مطالعه یک روش نوین برای وزن­ دهی به قوانین فازی با استفاده از الگوریتم تکاملی رقابت استعماری ارائه شده است تا بتوان قوانین مهم­تر را با استفاده از وزن­های بهینه شده بیش­تر در نظر گرفت. در این پایان­نامه، عملگرهای الگوریتم رقابت استعماری برای ساختن مناسب قوانین فازی مجددا تعریف می­شوند

درواقع تکنیک Ishibuchi برای فاز اول یعنی تولید قوانین و تکنیک رقابت استعماری برای فاز دوم یعنی وزن­دهی به آن­ها ارائه شده است. در گام بعدی، تولید و تکامل قوانین فازی با الگوریتم رقابت استعماری پیشنهاد شده است. این روش باعث افزایش کارایی طبقه­بندی کننده برای نرخ طبقه بندی می­شود. درنهایت، هدف، ساختن یک مجموعه قانون فشرده با تعداد کم قوانین است که این قوانین دارای طول کوتاه و در نتیجه تفسیرپذیری بالا هستند.

الگوریتم پیشنهادی با طبقه بندی کننده­های پایه غیرفازی مانند SVM، C4.5، 1NN و Naive Bayes و الگوریتم­های طبقه بندی کننده فازی که توضیح داده خواهد شد مقایسه و ارزیابی می­شود.

 

ادامه مطلب...
پایان نامه شناسایی مشخصه ­های مناسب موجود در متن جهت رفع ابهام معنایی

رشته مهندسی کامپیوتر 

گرایش : نرم‌افزار

عنوان : شناسایی مشخصه ­های مناسب موجود در متن جهت رفع ابهام معنایی

تعداد صفحات : 94

چکیده

به جرأت می­توان ادعا کرد که عصر حاضر، عصر انفجار اطلاعات است و شاید بتوان زبان را بعنوان مهمترین سد و مانع در انتقال اطلاعات دانست. بنابراین ضرورت بکارگیری ماشین در پردازش و ترجمه­ی متون تبدیل به نیازی غیر قابل انکار شده است. اما مشکلاتی که بر سر راه مترجم­ های ماشینی وجود دارد مانع شده تا این مهم از کیفیت و دقت کافی برخوردار باشد.

یکی از تأثیرگذارترین مسائل در دقت و کیفیت ترجمه­ی ماشینی، رفع ابهام معنایی است که دقت در آن باعث بالا رفتن دقت کل عمل ترجمه می­گردد. منظور از رفع ابهام معنایی انتخاب معنای مناسب کلمه با توجه به متن، برای کلماتی است که دارای چندین معنای متفاوت هستند. لذا در این پژوهش سعی شده است تا به بررسی روش­های مختلف و ایده­های متفاوت پرداخته و با ارائه­ی شیوه­ای متفاوت در این راستا قدمی برداریم.

روش ارائه شده در این پایان نامه، روشی مبتنی بر دانش است که با بهره­ گیری از اطلاعات تکمیلی پیرامون کلمه­ی مبهم در متن و ارائه­ی یک روش امتیازدهی، به رفع ابهام می­ پردازد. به این منظور از یک طرف با بکارگیری وردنت و منابع دیگری که به نوعی مکمل وردنت هستند، فهرستی از کلمات مرتبط با کلمه­ی مبهم تهیه کرده و از طرف دیگر کلمات همراه با کلمه­ی مبهم در متن را از پیکره­ی مورد نظر استخراج می­کنیم. سپس با استفاده از یک رابطه­ی امتیازدهی، معنایی که دارای بیشترین امتیاز است و مرتبط­تر به نظر می­رسد را انتخاب می­کنیم. در نهایت، دقت روش ارائه شده را بررسی کرده و نتایج را با دقت سایر روش­ها مقایسه می­کنیم.

 

ادامه مطلب...
پایان نامه کاهش انرژی مصرفی در محیط ابرواره با استفاده از مهاجرت

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته  مهندسی کامپیوتر

گرایش : نرم افزار

عنوان : کاهش انرژی مصرفی در محیط ابرواره با استفاده از مهاجرت

تعداد صفحات : 89

چکیده

کاهش مصرف انرژی از جمله مهمترین مسائل روز به ویژه در بخش صنعت است. در سالهای اخیر نیازهای روز افزون بشر به سیستم‌های کامپیوتری باعث ایجاد و گسترش هر چه بیشتر مراکز داده با تعداد زیاد رایانه شده است که در مجموع مصرف برق قابل توجهی دارند. بدیهی است که در چنین شرایطی تلاش‌های زیادی در راستای کاهش مصرف برق در این مراکز از سوی متخصصین صورت گرفته است و اکنون نیز تلاش در این زمینه از اهمیت خاصی برخوردار است. یکی از روش‌های کاهش مصرف برق در مراکز داده، مهاجرت ماشین مجازی است.

در این پایان نامه با استفاده از مهاجرت ماشین مجازی یک بسته‌ی نرم افزاری طراحی و پیاده سازی شده‌است که بر اساس بار کاری هر رایانه و انتقال بار بین سیستم‌ها در قالب مهاجرت ماشین مجازی شرایطی مناسب را برای کاهش مصرف برق به وجود می آورد و با بهره گیری از آن مصرف را به میزان چشمگیری کاهش می دهد

ادامه مطلب...
پایان نامه روش تصمیم­ گیری دسته ­جمعی جهت بهبود عملکرد الگوریتم نزدیک­ترین همسایه

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته کامپیوتر 

گرایش : هوش مصنوعی

عنوان : روش تصمیم­ گیری دسته ­جمعی جهت بهبود عملکرد الگوریتم نزدیک­ترین همسایه

تعداد صفحات : 63

چکیده

نتایج آزمایشات نشان داده است که ترکیب چندین دسته ­بند می­ تواند کارایی الگوریتم­ های متنوع را بالا ببرد. روش­های تصمیم­ گیری دسته­ جمعی بسیاری ارائه شده­اند که با استفاده از آن­ها، خطای روش­های مختلف دسته­ بندی کاهش یافته است. با این حال، این گونه روش­ها نتوانسته ­اند کارایی الگوریتم نزدیک­ترین همسایه را افزایش دهند. در این پایان­ نامه یک روش تصمیم­گیری دسته­ جمعی ارائه شده است تا با استفاده از ترکیب وزن­ دار چندین دسته­ بند، کارایی را بهبود بدهد. در این روش هر کدام از این دسته­بند­ها یک دسته­بند نزدیک­ترین همسایه است که تنها از زیر مجموعه­ای از مجموعه ویژگی­ها نمونه­ ها استفاده می­کند. در ادامه، الگوریتم به هر کدام از آن­ها یک وزن اختصاص می­دهد و در نهایت از یک مکانیسم رای­گیری وزنی برای تعیین خروجی مدل دسته­جمعی استفاده می کند.

 

  • مقدمه

در دنیای امروزی حجم اطلاعات دیجیتالی به صورت روز افزونی در حال افزایش است. در همین راستا، به جهت مدیریت و بررسی علمی این اطلاعات، نیاز به پردازش هوشمندانه و خودکار این اطلاعات بیش از پیش احساس می شود.

یکی از مهم ترین این پردازش ها که در فناوری اطلاعات و ارتباطات مورد نیاز است، دسته ­بندی خودکار این اطلاعات می باشد. دسته بندی در مسائل متنوعی در فناوری اطلاعات به کار گرفته می شود، در مسائلی مانند امنیت اطلاعات، شناسایی نفوذگری در شبکه، دسته بندی کاربران بر اساس اطلاعات شخصی، پردازش تصویر و در واقع شناسایی هر گونه الگو بر اساس نمونه­ ها و اطلاعات پیشین این پردازش می تواند دسته­ی نمونه­ های جدید که به مجموعه اطلاعات اضافه می شود را پیش بینی نماید. از این رو در هوش مصنوعی توجه خاصی به توسعه انواع روش­های دسته ­بندی هوشمند و خودکار شده است.

 روش­های دسته ­بندی

دسته­ بندی یکی از مهم­ترین شاخه‌های یادگیری ماشین است. دسته­ بندی به پیش­بینی برچسب دسته نمونه بدون برچسب، بر اساس مجموعه نمونه­ های آموزشی برچسب­دار (که قبلا به با کمک یک کارشناس دسته­ بندی  شده ­اند) گفته می­شود. درواقع دسته­ بندی روشی است که هدف آن، گروه­ بندی اشیا به تعدادی دسته یا گروه می­باشد. در روش‌های دسته­بندی، با استفاده از اطلاعات بدست آمده از مجموعه نمونه­ های آموزشی، از فضای ویژگی­ها به مجموعه برچسب دسته­ ها نگاشتی بدست می آید که بر اساس آن، نمونه­ های بدون برچسب به یکی از دسته­ ها نسبت داده می­شود.

در مسائل دسته­بندی، هر نمونه توسط یک بردار ویژگی به صورت X=<x1 , x2 ,… xm> معرفی می­شود که نشان دهنده­ی مجموعه مقادیر ویژگی­های نمونه­ی­ مربوطه است. بر اساس این بردار، نمونه­ی ­ X دارای m خصوصیت یا ویژگی است. این ویژگی­ها می­توانند مقادیر عدد صحیح، اعشاری ویا مقادیر نامی به خود اختصاص بدهند. همچنین این نمونه دارای یک برچسب C است که معرف دسته­ای­ است که نمونه­ی­ X به آن تعلق دارد.

تفاوت روش­ها دسته­بندی در چگونگی طراحی نگاشت است. در بعضی از آن­ها با استفاده از داده­های آموزشی مدلی ایجاد می­شود که بر اساس آن فضای ویژگی­ها به قسمت­های مختلف تقسیم می­شود که در آن، هر قسمت نشان دهنده­ی یک دسته است. در این گونه روش­های دسته­بندی از مدل برای پیش­بینی دسته­ی­ نمونه بدون برچسب استفاده شده و از نمونه ­­های آموزشی به طور مستقیم استفاده نمی شود. یک نمونه از این دسته­بندها، دسته­بندهای احتمالی می­باشد. این گونه الگوریتم ­ها، از استنتاج آماری برای پیدا کردن بهترین دسته استفاده می­کنند؛ برخلاف سایر دسته­بند­ها که فقط بهترین کلاس را مشخص می­کنند الگوریتم­های احتمالی به ازای هر دسته موجود یک احتمال را به عنوان تعلق نمونه به آن مشخص می­کنند و کلاس برنده، بر اساس بیشترین احتمال انتخاب می­شود. روش­های احتمالی در یادگیری ماشین معمولا با نام الگوریتم­های آماری نیز شناخته می­شوند. در گروهی دیگر از روش­های دسته بندی، نمونه براساس خود مجموعه نمونه­ها و بدون ساختن مدل، به پیش­بینی دسته­ی نمونه مورد نظر می­پردازد. به این گونه الگوریتم های دسته­بندی، نمونه- بنیاد گفته می­شود.

تاکنون الگوریتم­های متفاوتی به عنوان دسته ­بند ارائه شده­اند. از جمله­ ی­ آن­ها می­توان به الگوریتم نزدیک ترین همسایه­ ها ، دسته­ بند بیز، ماشین بردار پشتیبان و شبکه عصبی اشاره کرد.

  • ارزیابی دسته­ بند

اولین موضوعی که در مورد هر الگوریتم مورد توجه قرار می­گیرد، کارایی و دقت آن الگوریتم است. در هوش مصنوعی، معیار­های متفاوتی وجود دارند که در مسائل مختلف و زیر شاخه­های این علم استفاده می­شود. در مورد کارایی یک دسته­بند­، به عنوان یکی از مسائل اصلی هوش مصنوعی، روش­های متنوعی وجود دارد که در این قسمت بررسی شده­اند.

معیار کارایی نظر­گرفته شده برای یک دسته­بند، ارتباط مستقیمی با کاربرد و ضمینه کار خاص آن دسته­بند دارد. بنابراین در مسائل متفاوت، ممکن است معیار­های مختلفی برای اندازه­گیری کارایی الگوریتم در نظر­گرفته شود. همچنین همان طور که مشخص است، یک دسته­بند که بتواند برای همه مسائل موجود بهترین جواب را ارائه دهد، وجود ندارد.

در بررسی آماری کارایی یک دسته­بند، از یک مجموعه که شامل تعداد مشخصی نمونه­ی­ آموزشی دارای برچسب است استفاده می­شود. برای این کار، قسمتی از این نمونه­ ها و یا تمام مجموعه،­ به عنوان مجموعه آموزشی، در اختیار دسته­بند برای آموزش قرار می­گیرد. پس از آموزش، دسته بند به وسیله ­ی­ زیر­مجموعه­ ای­ از نمونه­ها، به عنوان نمونه­های­ آزمایشی، محک زده می­شود. نمونه­ ها­ی موجود در مجموعه­ ی­ آزمایشی، بسته به نوع آزمون کارایی، می­تواند عضو مجموعه آموزشی بوده و یا متفاوت با آن باشند.

نرخ دسته­بندی یا صحت پرکاربردترین و ساده ­ترین معیار اندازه­گیری کارایی هر دسته­بند است. این معیار برابر است با نسبت تعداد نمونه­های درست دسته­ بندی شده به تعداد کل نمونه ­ها. براساس این تعریف، نرخ خطای دسته­ بندی از رابطه زیر بدست می­آید

 مقادیر دقت و بازخوانی نیز معیارهای مناسبی برای ارزیابی دسته­ بندها می­باشند. که اخیرا برای ارزیابی رقابت بین اشتباه-مثبت و درست-مثبت استفاده می­شود. در ادامه این معیار­ها معرفی می­شود.

  • معیاردقت : احتمال مثبت بودن نمونه­هایی که مثبت اعلام شده ­اند.

                  معیار بازخوانی : احتمال مثبت اعلام کردن نمونه ­های دسته مثبت.

   معیار اختصاص: احتمال منفی اعلام کردن  نمونه­ های دسته منفی.

که در این معیارها، دسته مثبت، دسته مورد بررسی است و دسته منفی به سایر دسته ­ها گفته می­شود.

  • تصدیق متقابل

یک روش برای ارزیابی آماری دسته­بند، تصدق متقابل می­باشد. در این تکنیک برای ارزیابی کارایی دسته­بند، نمونه­ها را به صورت تصادفی به دو گروه که مکمل یکدیگر هستند، تقسیم می­کنند. با یک گروه سیستم را آموزش داده و با گروه دیگر سیستم آموزش دیده را مورد آزمایش قرار می­دهند. با این کار از تطبیق بیش از حد مدل بر روی داده­های آموزشی جلوگیری می­شود و نتایج بدست آمده از ارزیابی، دارای درجه اطمینان بیشتر خواهد بود. برای اطمینان بیشتر از نتایج، تصدیق متقابل در چندین مرحله صورت تکرار شده و در هر مرحله، از تقسیم­بندی متفاوتی برای نمونه­ها استفاده می­شود. در پایان از نتایج تمامی تکرار آزمایش­ها میانگین­گیری صورت می­گیرد.

در ادامه روش­های مختلف تطبیق متقابل توضیح داده می­شود.

  • تصدیق زیر گروه تصادفی: در این روش، نمونه­ ها به صورت تصادفی به دو گروه آموزشی و آزمایشی تقسیم می­شوند. سپس دسته­ بند به وسیله­ی­ نمونه­ های آموزشی، آموزش داده می­شود و با استفاده از مجموعه دیگر آزمایش شده و کارایی محاسبه می­شود. این عملیات چندین بار انجام می­گیرد و در نهایت میانگین آن­ها به عنوان کارایی دسته­بند ارائه می­شود. با توجه به تصادفی انتخاب شدن مجموعه­ های آموزشی و آزمایشی، مهم­ترین مشکل این روش امکان عدم انتخاب بعضی از نمونه­ها به عنوان عضو یکی از دو گروه و یا انتخاب بیش از یک بار بعضی از نمونه­ها می­باشد.
  • تصدیق متقابل k قسمت: در روش ابتدا مجموعه نمونه­ ها به K دسته تقسیم می­شوند. در هر مرحله نمونه­های k-1 دسته به عنوان مجموعه آموزشی در نظر گرفته می­شود و با استفاده از یک دسته دیگر کارایی سیستم دسته­بند ارزیابی می­شود. در نهایت کارایی سیستم برابر با میانگین کارایی در همه مراحل می­شود. در این روش از همه نمونه­ها برای آموزش و آزمایش استفاده می­شود.
  • تصدیق یکی در مقابل بقیه: یک روش دیگر، تصدیق یکی در مقابل بقیه است. در این روش، هر نمونه یک بار به عنوان نمونه آزمایشی انتخاب می­شود و از سایر نمونه­­ها برای آموزش استفاده می­شوند. این روش بر روی تمامی نمونه­ها انجام می­شود. در پایان، کارایی الگوریتم برابر نسبت تعداد نمونه­های درست دسته­بندی شده به کل است.
    • الگوریتم نزدیک­ترین همسایه

یکی از الگوریتم­های معروف دسته­بندی، الگوریتم نزدیک همسایه است؛ با این که از معرفی آن چندین دهه می­گذرد، این روش همچنان محبوب بوده و کاربرد بسیاری در مسائل مختلف دارد. دلیل این موضوع سادگی پیاده­سازی و کارایی بالا این روش است. به علاوه، این الگوریتم را به سادگی می­توان در مسائل مختلف به کار برد. الگوریتم نزدیک­ترین همسایه از یک قانون بسیار ساده در عمل دسته­بندی استفاده می­کند. نمونه­هایی که شباهت بیشتری با یکدیگر دارند(در فضای ویژگی­ها در نزدیکی یکدیگر قرار گرفته­اند)، به احتمال بالا در یک دسته قرار دارند. بر طبق این، در الگوریتم نزدیک­ترین­ همسایه، برای بدست آوردن دسته­ ی­ نمونه­ ی­ پرس­و­جو شده، بر اساس یک معیار شباهت(تفاوت)، نزدیک­ترین­ نمونه، از مجموعه­ی­ نمونه­ های آموزشی تعیین می­شود. سپس الگوریتم دسته­ی­ این نمونه را به عنوان دسته­ی­ نمونه­ی پرس­و­جو شده اعلام می­کند.

به عنوان مثال، شکل 1 نحوه بدست آوردن دسته ­ی نمونه­ ی­ پرس­وجو شده را توسط الگوریتم نزدیک­ترین­ همسایه، در یک فضای ویژگی دو بعدی و در مسئله ­ای­ با سه دسته نمایش می­دهد. در این مثال، از معیار فاصله اقلیدسی برای بدست آوردن نزدیک­ترین همسایه استفاده شده است.

 

ادامه مطلب...
پایان نامه بهینه سازی خوشه ها با استفاده از الگوریتم های تکاملی برای شخصی سازی وب

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر

گرایش : نرم افزار

عنوان : بهینه سازی خوشه ها با استفاده از الگوریتم های تکاملی برای شخصی سازی وب

تعداد صفحات : 82

چکیده:

گرانبار شدن اطلاعات یک مشکل عمده در وب کنونی به شمار می­رود. برای مقابله با این مشکل، سیستم‌های شخصی­ سازی وب ارائه شده­ اند که محتوا و سرویس­ های یک وب­ سایت را با افراد براساس علایق و رفتار گردشی آن­ها سازگار می­کنند. یک مؤلفه­ی اساسی در هر سیستم شخصی­سازی وب، مدل کاربر آن است. هدف از شخصی سازی وب، مهیا ساختن محتوا و سرویس ­های مورد نیاز کاربران به وسیله دانش به دست آمده از تعاملات قبلی کاربران در صفحات وب است. در حال حاضر، برای شخصی­ سازی وب چندین متد خوشه­ بندی در دسترس است. روش­هایی که تاکنون ارائه شده ­اند، در مواردی دارای اشکالاتی بودند. البته تکنیک­ های جدیدی در رفع این مشکلات و بهبود آنها ارائه شده است. اما در بیشتر این تکنیک­ها، مسائل افزونگی داده و مقیاس­ بندی بالا وجود دارد. با توجه به اینکه افزایش کاربران وب منجر به افزایش اندازه‌ی خوشه می‌گرد، نیاز به بهینه‌سازی خوشه‌ها اجتناب‌ناپذیر خواهد بود. در تحقیق، یک متدولوژی بهینه سازی خوشه بر اساس سیستم فازی ارائه شده است. به منظور افزایش دقت نهایی خوشه­ بندی، برای تنظیم پارامترهای توابع عضویت از الگوریتم ژنتیک استفاده شده است. نتایج حاصل از شبیه‌سازی نشان می‌دهد که روش پیشنهادی دقت خوشه­ بندی صفحات وب را تا حد قابل توجهی افزایش می­دهد.

فصل اول: کلیات تحقیق

1-1- مقدمه

با توسعه سیستم‌های اطلاعاتی، داده به یکی از منابع پراهمیت سازمان‌ها مبدل گشته است. بنابراین روش‌ها و تکنیک‌هایی برای دستیابی کارا به داده، اشتراک داده، استخراج اطلاعات از داده و استفاده از این اطلاعات، مورد نیاز می‌باشد. با ایجاد و گسترش وب و افزایش چشم گیر حجم اطلاعات، نیاز به این روش‌ها و تکنیک‌ها بیش از پیش احساس می‌شود. وب، محیطی وسیع، متنوع و پویا است که کاربران متعدد اسناد خود را در آن منتشر می‌کنند. در حال حاضر بیش از دو بیلیون صفحه در وب موجود است و این تعداد با نرخ 7.3 میلیون صفحه در روز افزایش می‌یابد. با توجه به حجم وسیع اطلاعات در وب، مدیریت آن با ابزارهای سنتی تقریباً غیر ممکن است و ابزارها و روش­هایی نو برای مدیریت آن مورد نیاز است. به طور کلی کاربران وب در استفاده از آن با مشکلات زیر روبرو هستند:

1- یافتن اطلاعات مرتبط: یافتن اطلاعات مورد نیاز در وب دشوار می‌باشد. روش‌های سنتی بازیابی اطلاعات که برای جستجوی اطلاعات در پایگاه داده‌ها به کار می‌روند، قابل استفاده در وب نمی‌باشند و کاربران معمولاً از موتورهای جستجو که مهم­ترین و رایج ترین ابزار برای یافتن اطلاعات در وب می باشند، استفاده می‌کنند. این موتورها، یک پرس و جوی مبتنی بر کلمات کلیدی از کاربر دریافت کرده و در پاسخ لیستی از اسناد مرتبط با پرس و جوی وی را که بر اساس میزان ارتباط با این پرس و جو مرتب شده اند، به وی ارائه می­کنند. اما موتورهای جستجو دارای دو مشکل اصلی هستند (Baeza-Yates, 2004). اولاً دقت موتورهای جستجو پایین است، چراکه این موتورها در پاسخ به یک پرس و جوی کاربر صدها یا هزاران سند را بازیابی می‌کنند، در حالی که بسیاری از اسناد بازیابی شده توسط آنها با نیاز اطلاعاتی کاربر مرتبط نمی‌باشند (Bharat, and et. al., 2001). ثانیاً میزان فراخوان این موتورها کم می‌باشد، به آن معنی که قادر به بازیابی کلیه اسناد مرتبط با نیاز اطلاعاتی کاربر نیستند. چرا که حجم اسناد در وب بسیار زیاد است و موتورهای جستجو قادر به نگهداری اطلاعات کلیه اسناد وب، در پایگاه داده‌های خود نمی‌باشند (Chakrabarti, and et. al., 1999).

2- ایجاد دانش جدید با استفاده از اطلاعات موجود در وب: در حال حاضر این سوال مطرح است که چگونه می‌توان داده‌های فراوان موجود در وب را به دانشی قابل استفاده تبدیل کرد، به طوری که یافتن اطلاعات مورد نیاز در آن به سادگی صورت بگیرد. همچنین چگونه می‌توان با استفاده از داده‌های وب به اطلاعات و دانشی جدید دست یافت.

3- خصوصی سازی اطلاعات: از آن جا که کاربران متفاوت هر یک درباره نوع و نحوه­ی بازنمایی اطلاعات سلیقه خاصی دارند، این مسئله باید توسط تأمین­ کنندگان اطلاعات در وب مورد توجه قرار بگیرد. برای این منظور با توجه به خواسته‌ها و تمایلات کاربران متفاوت، نحوه ارائه اطلاعات به آنها باید سفارشی گردد.

تکنیک‌های وب کاوی قادر به حل این مشکلات می‌باشند (Chakrabarti, 2000).

2-1- تعریف مسئله

وب به یک بخش تسلیم نشدنی جهان تبدیل شده است و گشت و گذار وب، یک فعالیت مهم برای مشتریانی که خرید آنلاین دارند، به شمار می­آید (Varghese, 2012). همانطور که گفته شد، با توجه به حجم وسیع اطلاعات در وب، مدیریت آن با ابزارهای سنتی تقریباً غیر ممکن است و ابزارها و روش­هایی نو برای مدیریت آن مورد نیاز است. یکی از این روش­ها وب­کاوی است. به طور کلی وب­کاوی را می­توان داده کاوی بر روی داده­های محتوا، ساختار و کاربرد وب به حساب آورد. هدف وب­کاوی کشف مدل­ها و الگوهای نهفته در منابع وب می­باشد. هدف وب کاوی کاربرد وب به طور خاص کشف الگوهای رفتاری کاربران وب می­باشد. کشف چنین الگوهایی از حجم عظیمی از داده­های تولید شده توسط وب سرورها کاربردهای مهمی دارد (Anand, and Mobasher, 2005). از جمله­ی آن­ها می­توان به سیستم­ هایی که میزان مؤثر بودن یک سایت را در برآوردن انتظارات کاربر ارزیابی می­کنند، تکنیک­ هایی برای متعادل کردن پویای بار و بهینه­سازی وب سرورها برای دستیابی مؤثرتر کاربران و کاربردهای مربوط به ساختاردهی مجدد و تطبیق یک سایت براساس نیازهای پیش بینی شده­ی کاربر اشاره کرد.

کشف استخراج اطلاعات مفید از داده­ی وب یا فایل­های وبلاگ، بهبود کارایی اطلاعات وب و فراهم کردن تکنولوژی برای کاربردهای وب به عنوان مثال، شخصی­سازی و غیره از جمله اهداف دیگر وب­کاوی می­باشد. برای مدیریت تصمیم­گیری، نتیجه کاوش کاربرد وب می­تواند برای تبلیغات، بهبود طراحی وب، بهبود رضایت مشتری، هدایت استراتژی تصمیم آنالیز بازار و سازمان مورد استفاده قرار گیرد (Naveena Devi et al., 2012).

در سال های اخیر تکنیک‌های وب­کاوی کاربرد وب به عنوان رویکردی دیگر که مبتنی بر کاربر است در شخصی­سازی وب ارائه شده است که برخی از مشکلات مربوط به فیلترکردن جمعی را کاهش می­دهد. به طور خاص وب کاوی کاربرد وب برای افزایش گسترش‌پذیری سیستم­ های شخصی­سازی شده­ی سنتی که برمبنای تکنیک­های فیلترکردن جمعی می­باشند استفاده شده است.

شخصی­سازی صفحه وب شامل خوشه­بندی صفحات مختلف وبی است که الگوی مشابهی دارند. شخصی­سازی وب از تکنیک کاربرد وب­ کاوی برای سفارشی کردن صفحات وب برای یک کاربر خاص استفاده می­کند. این مسئله شامل استخراج جلسات کاربر از فایل­های ورود به سیستم می­شود. یک جلسه کاربر، دنباله­ی صفحات وبی که توسط کاربر در یک دوره زمانی خاص مورد دسترسی قرار گرفته، می­باشد.

3-1- اهمیت و ضرورت تحقیق

با رشد ناگهانی اندازه وب و استفاده از وب گسترده جهانی، برای کاربران بسیار مشکل شد که بتوانند به طور مؤثر به اطلاعات مرتبط و مورد علاقه خود دسترسی پیدا کنند. نیاز به پیش­بینی نیازهای کاربر به منظور بهبود قابلیت استفاده و حفظ کاربر سایت، آشکار است و می­تواند با استفاده از شخصی­سازی آدرس­دهی شود. شخصی‌سازی وب، پردازشی از یک سایت برای بر طرف کردن نیاز یک کاربر خاص یا مجموعه­ای از کاربران با استفاده از دانش به دست آمده از طریق تحلیل رفتار گشت و گذار کاربر است. هدف از سیستم شخصی سازی وب، مهیا ساختن اطلاعات و نیازهای کاربران، بدون این که صریحاً از آنها سوالی پرسیده شود.

هر اقدامی که اطلاعات یا سرویس­های فراهم شده توسط یک وب­سایت با نیازهای یک کاربر یا گروه خاصی از کاربران با به کارگیری دانش بدست آمده از رفتار گردشی کاربر و علایق خاص او به صورت ترکیب با محتوا و ساختار وب­سایت سازگار می­کند شخصی ­سازی وب نامیده می­شود (Eirinaki, 2003).

بطور کلی اهداف شخصی­ سازی وب عبارتند از:

– شخصی ­سازی سرویس­های ارائه شده توسط یک وب­سایت نقش مهمی در کاهش گرانبار شدن اطلاعات ایفا می­کند و وب­سایت را به یک محیط کاربر پسندتر برای افراد تبدیل می­کند.

– با فراهم کردن اطلاعات دلخواه کاربر به روش مناسب و در زمان مناسب، باعث بهبود گردش کاربر در وب­ سایت می­شود.

– در تجارت الکترونیکی مکانیزیمی برای درک بهتر نیازهای مشتری، شناسایی تمایلات آینده­ی او و در نهایت افزایش پابرجایی مشتری به سرویس ارائه شده فراهم می­کند.

در سال های اخیر تکنیک‌های وب­کاوی کاربرد وب به عنوان رویکردی دیگر که مبتنی بر کاربر است در شخصی­سازی وب ارائه شده­ است که برخی از مشکلات مربوط به فیلترکردن جمعی را کاهش می­دهند. به طور خاص وب کاوی کاربرد وب برای افزایش گسترش پذیری سیستم­های شخصی­سازی شده­ی سنتی که برمبنای تکنیک­های فیلترکردن جمعی می­باشند استفاده شده است.

به طور نمونه شخصی سازی برروی پردازش شناسایی کاربر وب، جمع آوری اطلاعات از طریق اولویت یا علاقه­مندی های کاربر، تمرکز دارد. به طور مختصر شخصی­ سازی وب می­تواند برای مهیا ساختن سرویس با کیفیت­ تر استفاده شود و برنامه کاربردی از وب را برای کاربران در طول گشت و گذار آنها در وب مهیا سازد. این فعالیت­ها می­ تواند با مشخص کردن لینک­ها و لینک­های جدید مورد علاقه کاربر به صورت اتوماتیک و ایجاد صفحات ایندکس جدید، ساخته شود.

رویکرد تنها مبتنی بر کاربرد در شخصی­سازی وب یک عیب مهم دارد و آن این است که فرآیند توصیه به کاربر تنها براساس داده­های تراکنشی موجود او صورت می­گیرد و از این رو اقلام یا صفحاتی که اخیراً به سایت اضافه شده­اند نمی­توانند به او توصیه شوند. این مشکل عموماً مشکل قلم جدید نامیده می­شود. از سوی دیگر اگرچه الگوهای کشف شده­ی مربوط به کاربرد منابع وب از طریق وب­کاوی کاربرد وب در کشف ارتباطات اقلام با یکدیگر یا کاربران با یکدیگر و نیز تعیین شباهت در جلسات کاربر مفیدند اما بدون استفاده از دانش عمیق­تری از دامنه­ی وب سایت مورد نظر چنین الگوهایی درک اندکی از دلایل آن که چرا اقلام یا کاربران در گروه­ هایی با هم قرار می­گیرند در اختیار ما قرار می­دهند. یک رویکرد معمول برای حل این مشکل در فیلتر کردن جمعی آن است که مشخصات محتوای صفحات را با رتبه ­بندی­ ها و قضاوت­ های کاربر ادغام کنیم. به طور کلی در این رویکردها کلمات کلیدی از محتوای وب­سایت استخراج می­شوند و برای اندیس­گذاری صفحات براساس محتوا یا طبقه­بندی آن­ها به دسته­ های مختلف مورد استفاده قرار می‌گیرند. در حوزه­ی شخصی ­سازی وب این رویکرد به سیستم اجازه می ­دهد تا صفحات را نه تنها براساس افراد مشابه بلکه براساس شباهت محتوایی آن­ها به صفحاتی که کاربر اخیراً بازدید کرده است به او توصیه کند.

یک ضعف عمده در بیشتر رویکردهای موجود که از محتوای وب برای بهبود مدل کاربر استفاده می‌کنند این است که این روش­ها معمولاً از بردار عبارات برای نمایش علایق کاربر استفاده می­کنند و ارتباطات معنایی بین این عبارات را نادیده می­گیرند. در صورتی که می­توان با استفاده از معنا این روش نمایش را بهبود داد.

روش­هایی که تاکنون ارائه شده­اند، در مواردی دارای اشکالاتی بودند. البته تکنیک‌های جدیدی در رفع این مشکلات و بهبود آنها ارائه شده است. اما در بیشتر این تکنیک‌ها، مسائل افزونگی داده و مقیاس‌بندی بالا وجود دارد. الگوریتم­های خوشه­بندی متعددی براساس تکنیک­ های مختلف وجود دارد. بیشتر این الگوریتم ­ها، اشکالات متعددی دارند. همان­طور که اندازه خوشه در طی افزایش کاربران وب افزایش می‌یابد، نیاز به بهینه‌سازی خوشه ­ها اجتناب ناپذیر خواهد بود. در این پایان‌نامه قصد بر آنست تا یک متدولوژی بهینه‌سازی خوشه بر اساس سیستم فازی و الگوریتم ژنتیک ارائه شود.

 

ادامه مطلب...
پایان نامه غنی سازی محتوای آموزش الکترونیکی مبتنی بر وب معنایی

مهندسی کامپیوتر

عنوان : غنی سازی محتوای آموزش الکترونیکی مبتنی بر وب معنایی

تعداد صفحات : 99

چکیده:

در دنیای امروز به منظور کاهش هزینه یادگیری از طرفی و هزینه وقت از طرف دیگر که نمی توان از آن چشم پوشی کرد، بهره گیری از سیستمهای جدید یادگیری همچون یادگیری الکترونیکی جایگاه خود را نمایان ساخته است. محققان تلاش می کنند برای پایین آوردن هزینه آموزش مستقل از زمان با تکیه بر فناوری های جدید بتواند علاوه بر آموزش موثر هزینه تولید را با بهره گیری از دانش اشتراکی در محیط وب کاهش داده و با تنوع بخشی محتوای آموزش الکترونیکی به کمک سیستم های انطباقی مبتنی بر شبکه وب معنایی به اطلاعات و داده های مرتبط برای یادگیرنده دست یایند.

در این تحقیق آنچه مورد نظر ماست شامل، بهره گیری از وب معنایی به منظور غنی سازی محتوای آموزش الکترونیکی برای افزایش اثر بخشی و ارتقاء کیفیت آموزش در سیستم های آموزش الکترونیکی و ارائه بهترین شیوه بکارگیری فناوری های وب معنایی در تنوع بخشی و غنی سازی محتوای آموزش الکترونیکی با تکیه بر آمار و کاربردها است. بدین منظور در این تحقیق تلاش شده با ارائه و طراحی یک معماری توزیع شده در حوزه های مختلف وب معنایی مانند مدل سازی محتوایی مبتنی بر کلید واژه با بهره گیری از داده کاوی، تولید محتوا به روش های مشارکتی و اجتماعی، تولید محتوا به روش تفسیر متن بر اساس هستان شناسی و ارائه محتوای آموزش الکترونیکی مبتنی بر هستان شناسی به تقویت و تنوع بخشی محتوای آموزشی اثر بخش دست یافت.

ارزیابی عملکرد سیستم آموزش الکترونیکی با محتوای غنی شده مبتنی بر وب معنایی حاکی از افزایش اثر بخشی آموزش بر روی یادگیرندگان داشته است، که این مهم با محتوای معمول در سیستم های مدیریت یادگیری بر روی تعدادی از یادگیرندگان نمونه امتحان، و نتیجه میزان یادگیری بررسی شده است، به طوری که با بهره گیری از این سیستم می توان حداقل به افزایش توانمندی یادگیرندگان به میزان 20% و علاقه مندی استفاده از سیستم به میزان 40% برای آنان دست یافت.

ادامه مطلب...
تلفيق الگوريتم رقابت استعماري و انتخاب سريع زمان آماده سازي در حل مسأله برنامه ريزي توا�

پايان نامه تلفيق الگوريتم رقابت استعماري و انتخاب سريع زمان آماده سازي در حل مسأله برنامه ريزي توالي هواپيماها  یکی از پایان نامه و تحقیق های جامع و کامل و دارای منابع معتبر می باشد این پایان نامه دارای 79 صفحه به صورت فایل ورد و قابل ویرایش می باشد که جهت دریافت و دانلودمتن کامل پايان نامه تلفيق الگوريتم رقابت استعماري و انتخاب سريع زمان آماده سازي در حل مسأله برنامه ريزي توالي هواپيماها بر روی گزینه خرید انتهای ایمیل کلیک نمائید پس از وارد نمودن اطلاعات مربوطه و پرداخت قادر به دانلود متن کامل پایان نامه مربوطه می باشد همچنین لینک پایان نامه همان لحظه به ایمیل شما ارسال می گردد.

 

چکیده

مدیریت ترافیک هوایی یکی از مشاغل حساس و پراسترس است که همه‌روزه با مشکلات و موانع مختلفی روبه­رو می­شود و مسأله توالی هواپیما (Aircraft Sequencing Problem) یکی از مهم­ترین مسائلی است که این روزها در حوزه کاری مراقبت پرواز (Air Traffic Control) به آن پرداخته می­شود.

مسأله توالی هواپیما يك مسأله NP-سخت است، الگوريتم­هاي دقيق كارايي خود را بر روي اين مسأله در ابعاد بالا از دست مي­دهند و نمي­توانند به جواب بهينه در یک‌زمان قابل‌قبول دست يابند؛ درنتیجه امروزه براي حل اين­گونه مسائل از الگوريتم­هاي ابتكاري و فرا ابتكاري استفاده مي­شود.

در این پایان‌نامه سعی شده با تلفیق الگوریتم ERT(Earliest Ready Time) جهت انتخاب بهترین هواپیمای آماده عملیات با الگوریتم استعماری اصلاحی که از روش نزدیک­ترین همسایه تصادفی برای تابع جذب در کنار روش بهبود­دهنده سه­نقطه­ای برای تابع انقلاب استفاده کرده، روش جدیدی در حل مسأله توالی هواپیما ارائه شود. نتایج حاصل از پیاده‌سازی این الگوریتم نشان می­دهد که در مقایسه با سایر الگوریتم­ها از کارایی بالایی برخوردار است.


ادامه مطلب...
پايان نامه ارايه‌ي يک روش مسيريابي براي شبکه‌هاي حسگر بي‌سيم با هدف افزايش طول عمر شبکه

پايان نامه ارايه‌ي يک روش مسيريابي براي شبکه‌هاي حسگر بي‌سيم با هدف افزايش طول عمر شبکه یکی از پایان نامه و تحقیق های جامع و کامل و دارای منابع معتبر می باشد این پایان نامه دارای 69 صفحه به صورت فایل ورد و قابل ویرایش می باشد که جهت دریافت و دانلودمتن کامل پايان نامه ارايه‌ي يک روش مسيريابي براي شبکه‌هاي حسگر بي‌سيم با هدف افزايش طول عمر شبکه بر روی گزینه خرید انتهای ایمیل کلیک نمائید پس از وارد نمودن اطلاعات مربوطه و پرداخت قادر به دانلود متن کامل پایان نامه مربوطه می باشد

کاربرد روز افزون شبکه‌های حسگر بی‌سیم در زندگی انسان گویای اهمیت زیاد این تکنولوژی است. محدودیت انرژی در عناصر تشکیل دهنده‎ی شبکه‌های حسگر بی‌سیم که گره‌حسگرها می‌باشند همواره به عنوان مهمترین چالش پیش روی این تکنولوژی مطرح بوده است و به همین دلیل بخش اعظم تحقیقات انجام شده در حیطه‌ی شبکه‌های حسگر بی‌سیم به موضوع انرژی اختصاص یافته است. با توجه به اینکه نحوه‌ی انتخاب مسیرها برای ارسال اطلاعات در شبکه‌های حسگر بی‌سیم تأثیر قابل توجهی بر میزان مصرف انرژی شبکه دارد، در این پژوهش سعی بر ارایه‎‌ی راهکاری در زمینه‌ی مسیریابی با هدف افزایش طول عمر شبکه شده است. در این روش با در نظر گرفتن تاریخچه‌ی مصرف انرژی گره‌های ‌حسگر، تعداد همسایگان حسگر ارسال کننده‌ی داده، و فاصله مبدأ تا مقصد ارسال داده(تک گام)،  راهکاری ارایه شده است که می‌تواند تأثیر بسیاری بر افزایش عمر شکه داشته باشد. شبیه‌سازی و مقایسه با روش‌های معروف و موفق مسیریابی در شبکه‌های حسگر بی‌سیم گویای شایستگی روش پیشنهادی می‌باشد.

ادامه مطلب...
پایان نامه ارائه مدلی برای اندازه گیری میزان چابکی در شرکت های نرم افزاری بر اساس اصول چابک

دانلود متن کامل پایان نامه با فرمت ورد

پایان نامه مقطع کارشناسی ارشد رشته کامپیوتر

پایان‌نامه برای دریافت درجه کارشناسی ارشد در رشته مهندسی کامپیوتر(M.Sc) گرایش نرم‌افزار

 عنوان : ارائه مدلی برای اندازه گیری میزان چابکی در شرکت های نرم افزاری بر اساس اصول چابک

تعداد صفحات : 94

چکیده

استفاده از روشهای چابک در توسعه نرم افزار به جای روشهای سنتی چندی است در حال گسترش است. این روشها که به عنوان واکنشی به مشکلات موروثی روشهای سنتی ارائه شده اند، تحقق اهداف و ارزشهای نوینی را وعده داده اند. بر خلاف روشهای سنتی، این روشها سعی دارند تا فرایند توسعه نرم افزاری چابکی را در سازمان بنا نهند که در نتیجه آن هم مشتری و هم سازمان از نتایج راضی باشند. انطباق کامل با روشهای چابک به دلیل تمرکز آنها بر افراد و نه فرایند ها، در کوتاه مدت میسر نبوده و نیازمند زمان مناسبی می باشد. بدین جهت، هر چه سازمان چابکی بیشتری بتواند فراهم نماید، ارزشهای چابکی بیشتری را میتواند برای خود و مشتریانش فراهم نماید. با توجه به نیاز به ابزار سنجش چابکی، در این تحقیق سعی شده است که مدل اندازه گیری چابکی فراهم گردد که بر اساس معیارهای قابل پذیرش جهانی، بتواند میزان چابکی را در سازمانهای نرم افزاری محاسبه نماید. اگر چه سنجش کمی یک ارزش کیفی شاید دقت لازم را نداشته باشد، اما می تواند به عنوان معیاری برای بهبود و ارتقا چابکی در سازمان به کار گرفته شود. در این تحقیق، به جای تمرکز بر روشهای چابک، تمرینات چابک به عنوان زیربنای مدل اندازه گیری در نظر گرفته شده اند. بدین ترتیب مدل طراحی شده، مستقل از روشهای توسعه بوده و می تواند در همه شرکتها، حتی شرکتهایی که فقط بخشی از روشهای چابک را به کار گرفته اند، مورد استفاده قرار گیرد.

 

ادامه مطلب...
پایان نامه ارائه یک الگوریتم اجتماع مورچگان به منظور بهبود در زمان انجام کارها در محیط گرید

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر

عنوان : ارائه یک الگوریتم اجتماع مورچگان به منظور بهبود در زمان انجام کارها در محیط گرید

 

پایان نامه برای دریافت درجه کارشناسی ارشد “M.Sc”

تعداد صفحات :87

چکیده:

در این پایان نامه به ارایه یک روش جدید در پردازش شبکه ای با الگوریتم مورچگان پرداخته‌ایم. مدلی که در فضای شبکه ای استفاده کردیم حراج دو طرفه پیوسته می باشد. این مدل ها به دلیل سادگی و پویایی خود امروزه در بسیاری از الگوریتم های مورد استفاده برای کنترل منابع و زمان بندی کارها مورد استفاده قرار می گیرند. بسیاری از این مدل ها در زمان پاسخ گویی خود هنگام مدیریت منابع دچار ضعف می باشند. در مدل حراج, حراج کنندگان قیمت های مورد نظر خریداران را اعلام می کنند و خریداری که قیمت مناسب را اعلام کرده باشد منبع را بدست می گیرد. این مساله خود باعث می شود که زمان پاسخ گویی به دلیل درخواست خریداران افزایش یابد. در این پایان نامه ما روش جدیدی را به وسیله الگوریتم ژنتیک در سناریو حراج دو طرفه ارایه کردیم. در این روش با هوشمند سازی منابع, بسته های درخواست پیشنهادی را به سمتی سوق دادیم هر کدام از این محیط های شبکه ای را می توان به صورت یک سیستم توزیع شده در نظر گرفت که با شبکه های دیگر تعامل ندارد و حجم زیادی از داده را پوشش می دهد. یکی از فواید این روش نسبت به روش کلاسترینگ این است که منابع می تواند از لحاظ جغرافیایی در نقاط پراکنده و به صورت غیر متقارن قرار گیرد. با توجه به توزیع مجموعه های داده، انتخاب مجموعه منابع محاسباتی و منابع حاوی داده باید بطور مناسب صورت پذیرفته به گونه ای که سربار ناشی از انتقال این مجموعه ها روی گرید کمینه شود. در این تحقیق، مساله زمانبندی برنامه های نیازمند داده مورد توجه قرار می گیرد. با توجه به اینکه زمانبندی بهینه مستلزم انتخاب مجموعه منابع مناسب می باشد. در پردازش های شبکه ای ,محیط ها پویا می باشند به این معنا که ممکن است در یک زمان منابع روشن باشد و در زمانی دیگر همان منابع خاموش باشند

پیاده سازی های صورت گرفته در نرم افزار شبیه سازی GridSim مورد بررسی قرار گرفت و نتایج نشان داد که این روش جدید باعث بهبود زمان پردازش و کم شدن تعداد مراحل حراج می شود.

فصل اول: مقدمه

1-1- مقدمه

هدف اصلی این پایان نامه بهبود بازدهی در پردازش شبکه ای به وسیله الگوریتم مورچگان می باشد. این فصل با طرح مساله اصلی پردازش شبکه ای اغاز می شود و اهمیت آن شرح داده می شود. استفاده از الگوریتم مورچگان در بسیاری از مسایل باعث بهبود بازدهی و کاهش زمان پردازش شده است. این امر زمینه ای را فراهم می آورد تا از این الگوریتم در پردازشبکه ای نیز استفاده شود.

2-1- پردازش شبکه ای

پردازش شبکه ای به مجموعه ای از منابع که از چند نقطه مختلف برای انجام یک هدف اقدام به کار می کنند گویند. هر کدام از این محیط های شبکه ای را می توان به صورت یک سیستم توزیع شده در نظر گرفت که با شبکه ای های دیگر تعامل ندارد و حجم زیادی از داده را پوشش می دهد. یکی از فواید این روش نسبت به روش کلاسترینگ این است که منابع می تواند از لحاظ جغرافیایی در نقاط پراکنده و به صورت غیر متقارن قرار گیرد. . با توجه به توزیع مجموعه های داده، انتخاب مجموعه منابع محاسباتی و منابع حاوی داده باید بطور مناسب صورت پذیرفته به گونه ای که سربار ناشی از انتقال این مجموعه ها روی گرید کمینه شود. در این تحقیق، مساله زمانبندی برنامه های نیازمند داده مورد توجه قرار می گیرد. با توجه به اینکه زمانبندی بهینه مستلزم انتخاب مجموعه منابع مناسب می باشد. در پردازش های شبکه ای ,محیط ها پویا می باشند به این معنا که ممکن است در یک زمان منابع روشن باشد و در زمانی دیگر همان منابع خاموش باشند . همچنین در این پردازش ها ممکن است از لحاظ سخت افزاری و نرم افزاری با هم تفاوت داشته باشند.

پردازش شبکه ای دارای معماری های مختلفی می باشد که می توان به موارد زیر اشاره کرد:

– GT2

– OGSA

– GT3

3-1- الگوریتم مورچگان

الگوریتم مورچگان یک الگوریتم هیوریستیک با یک جستجوی محلی بهینه می باشد که برای مسایل ترکیبی مورد استفاده می گیرد. این روش از رفتار طبیعی مورچگان الهام گرفته است. در طبیعت مورچگان با ماده ای که از خود ترشع می کنند راه را به بقیه مورچگان نشان می دهند. در بسیاری از پژوهش ها از روش کلونی مورچگان برای حل مسایل NPسخت استفاده می شود. از این روش برای حل مسایلی مانند فروشنده دوره گرد, رنگ امیزی گراف و مسیر یابی استفاده می شود.

اجتماع مورچگان به مجموعه ای از مورچه های هوشمند گفته می شود که به صورت گروهی رفتار می کنند. این اجتماع در محیط جستجو می کنند تا جواب بهینه را پیدا کنند.

در مساله زمان بندی در محیط های شبکه ای, هر کدام از این کارها به منزله یک مورچه در نظر گرفته می شود. هر کدام از این مورچه ها به دنبال منابع مورد نظر خود حرکت می کنند.

در زیر شبه کد اجتماع مورچگان نشان داده شده است:

Procedure ACO

begin

Initialize the pheromone

while stopping criterion not satisfied do repeat for each ant do Chose next node by applying the state transition rate end for until every ant has build a solution Update the pheromone end while end

روش های متفاوتی برای اجتماع مورچگان وجود دارد که می توان به موارد زیر اشاره کرد :

– Max-Min Ant System

– Rank-based Ant System

– Fast Ant System

– Elitist Ant System

4-1- چالش های پردازش شبکه ای

از چالش مهم در پردازش های شبکه ای می توان به نحوه اولویت بندی و زمان بندی به پردازه ها اشاره کرد. مساله زمان بندی در پردازش های شبکه ای از سه بخش تشکیل می شود:

1- پیدا کردن منابع که شامل منابعی است قابلیت استفاده را دارند.

2- جمع اوری اطلاعات درباره این منابع و انتخاب بهترین مجموعه از منابع.

3- کارها در این مرحله انجام می شود.

مرحله پیدا کردن مجموعه بهترین منابع یکی از مسایل NP-Complete می باشد. در زمان بندی کارها دو هدف عمده وجود دارد:

1- بیشترین میزان کارایی را سیستم داشته باشد.

2- بیشترین خروجی را داشته باشد.

برای هدف اول, باید روشی ارایه شود که زمان پردازش را کاهش دهد و برای هدف دوم, باید روشی ارایه شود که زمان بندی را به مجموعه ای از کارهای مستقل از هم تقسیم کند. این کار باعث می شود که ظرفیت انجام کار سیستم در واحد زمان افزایش یابد.

برای حل این مشکل روش های متفاوتی ارایه شده است. یکی از این روش ها نگاشت این مساله به مساله فروشنده دوره گرد می باشد. در این روش مسیر هایی که منابع نسبت به هم دارند مهم می باشد. در پردازش شبکه ای به دلیل اینکه منابع در فواصل متفاوت و غیر متقارن نسبت به هم قرار دارند به همین دلیل در مواردی این روش می تواند مفید عمل کند.

در ادامه این پژوهش مطالب به صورت زیر ارائه گردیده است.

در فصل دوم به پیش زمینه های مربوطه پرداخته ایم و کلیات روش های زمانبندی به مورچه، ژنتیک و حراج پرداخته شده است.

در فصل سوم مهمترین الگوریتم ها و روشهای پیاده سازی شده در بسترۀ الگوریتم های زمان بندی ارائه گردیده است.

در فصل چهارم به ارائه روش پیشنهادی می پردازیم و نتایج شبیه سازی روش پیشنهادی (Acdanp) با روش قبلی مورد ارزیابی و مقایسه قرار می گیرد.

در فصل پنجم به ارائه پیشنهادات و کارهای آتی می پردازیم. ضمناً در پیوست الف کد سورس نوشته شده در محیطی Gridsim آورده شده است.

ادامه مطلب...
پایان نامه ارشد: استنتاج شبکه های تنظیمات ژنی از روی داده های سری زمانی Microarray به وسیله شبکه های بیزی

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر

گرایش : هوش مصنوعی

عنوان : استنتاج شبکه های تنظیمات ژنی از روی داده های سری زمانی Microarray به وسیله شبکه های بیزین دینامیک

تعداد صفحات : 92

چکیده

شبکه های تنظیم کننده ژنتیکی مجموعه ای از ارتباطات ژن-ژن هستند که رابطه علت و معلولی را در فعالیت های ژنی ایجاد می کنند. دانش ما در مورد این شبکه ها نقش بسیار موثری در شناخت فرآیندهای زیستی ایفا می کند و می تواند باعث کشف روش های جدید برای درمان بیماری های پیچیده و تولید داروهای اثر گذار گردد.

روش های زیادی برای تشخیص شبکه های تنظیم کننده ژنتیکی پیشنهاد شده است. در این میان، شبکه های بیزین دینامیک مزایای ویژه ای دارا می باشند که باعث شده تا توجه زیادی را به خود جلب کنند.

با وجود تحقیقات انجام شده در این زمینه، مهندسی معکوس شبکه های تنظیم کننده ژن به وسیله شبکه های بیزین دینامیک به هیچ عنوان امری بدیهی نیست. غالباً تعداد نمونه های موجود برای آموزش مدل از تعداد مجهولات مسئله بسیار کمتر است. همچنین میزان پیچیدگی زیاد این مدل ها و دقت آنها از مهم ترین نواقص آن ها می باشند.

یکی از عمده ترین روش هایی که برای بالا بردن دقت شبکه های استنتاج شده به کار گرفته می شود استفاده از دانش اولیه در مورد شبکه های تنظیم کننده ژنی است. یکی از منابع عمده این دانش اولیه اطلاعات ما در مورد ساختار کلی شبکه های تنظیم کننده ژنی است. تحقیقات انجام شده نشان می دهند که تعداد یال های موجود در این شبکه ها کم است. همچنین شواهد بسیاری بدست آمده اند که نشان می دهند توزیع درجه خروجی در شبکه های تنظیم ژنی از قانون توانی پیروی می کنند. در واقع این شبکه ها در درجه خروجی scale-free هستند.

علیرغم این شواهد، روش های یادگیری شبکه های بیزین دینامیک این گونه شبکه ها را شبکه هایی با ساختار تصادفی در نظر می گیرند و یا تنها پیچیدگی شبکه را کنترل می کنند.

در این تحقیق روشی برای یاد گیری شبکه های بیزین دینامیک ارائه می شود که به طور مشخص بر این فرض شکل گرفته که شبکه واقعی ساختاری scale-free در توزیع درجه خروجی دارد. روش ارائه شده پیچیدگی زمانی چند جمله ای دارد و می تواند برای استنتاج شبکه هایی با تعداد گره های زیاد مورد استفاده قرار گیرد.

آزمایش هایی که برای مقایسه توانایی الگوریتم ارائه شده با متدهای قبلی یادگیری شبکه انجام شده اند نشان می دهند که الگوریتم ارائه شده، زمانی که برای استنتاج شبکه هایی استفاده می شود که scale-free هستند، قادر است کیفیت شبکه استنتاج شده را به خصوص زمانی که داده های آموزشی ناکافی هستند به صورت قابل توجهی افزایش دهد.

 

ادامه مطلب...
پروژه اتصال کوتاه ژنراتور آسنکرون

جزئیات بیشتر این محصول:

پروژه جهت دریافت مدرک کارشناسی
عنوان کامل: اتصال کوتاه ژنراتور آسنکرون
دسته: مهندسی برق
فرمت فایل: WORD (قابل ویرایش)
تعداد صفحات: ١٣٠

________________________________________________________
بخشی از مقدمه:
در اوایل قرن بیستم به این واقعیت پی برده شد که ماشین القایی بعد از قطع ولتاژ خط ممکن است در حالت تحریک باقی بماند ولی برای ایجاد چنین تحریکی شرایط خاصی مورد نیاز بود. محققان بعد از پژوهش و تحقیق در یافتند که با اتصال خازنهایی به ترمینال موتور القایی در حال چرخش (توسط توان مکانیکی بیرونی) شرط تحریک پایدار بوجود آمده و ولتاژ بطور پیوسته تولید می شود. بنابراین یک سیستم تولید جدیدی متولد شد که در آن ولتاژ خروجی شدیداً به مقدار خازن تحریک و سرعت روتور و بار بستگی دارد. این نوع تولید تا سالهای ١٩۶٠-١٩٧٠ به فراموشی سپرده شد و مطالب کمی در مورد آن نوشته شد.
 علت این بی توجهی در اهمیت عملی کم چنین تولیدی مستتر بود. چرا که ژنراتور القایی به تنهایی توانایی کنترل ولتاژ و فرکانس تولیدی را ندارد. از این رو ژنراتورهای سنکرون در واحدهای تولیدی بکار گرفته و هرساله مقدار زیادی سوخت صرف تولید برق ac می شود. طبیعی است با استفاده روزافزون از آلترناتورهای سنکرون، آنهااز نظر مقادیر نامی، روشهای خنک سازی، تکنولوژی ساخت و مدلسازی این ژنراتورها دستخوش رشد و تحول شدند، اما ساختار اساسی آنها بدون تغییر ماند ولی بدلیل نگرانی از نرخ کاهش شدید منابع انرژی تجدیدناپذیر و به طبع آن صعود چشمگیر قیمت نفت از یک طرف و ظهور و رشد قطعات نیمه هادی قدرت و پیشرفت کنترل صنعتی از طرف دیگر ژنراتور القایی بازگشت مجددی یافت. 
از این رو علاقمندی زیادی برای استفاده از انرژی های تجدیدپذیر، مثل باد جهت جایگزینی سوخت و کاهش نرخ مصرف سوخت ایجاد شد و توجه به ژنراتور القایی به خاطر مزایای زیادی که دارد بیشتر شد.
در سالهای اخیر کاربرد ژنراتور القایی در تولید برق از توربینهای بادی و آبی کوچک مورد توجه زیادی قرار گرفته است. چرا که سادگی نگهداری و کاهش منابع انرژی فسیلی و توانایی ژنراتور القایی برای تبدیل توان مکانیکی از فاصله وسیعی از سرعت روتور موجب شده تا به فکر جایگزینی انرژی باد به جای سوختهای فسیلی بیافتند و انبوه تحقیقات در این زمینه نشانگر توانایی آن در رفع مشکلات حاضر است.
ادامه مطلب...
دانلود پایان نامه بررسی نیروگاههای انرژی تجدید پذیر
مشخصات مقاله:
عنوان کامل: بررسی کارآیی نیروگاههای انرژی های تجدید پذیر
فرمت فایل: WORD (قابل ویرایش)
تعداد صفحات پروژه: ۷۵
همراه با یک فایل پاورپوینت ۳۵ صفحه ای برای ارائه در کلاس

چکیده ای از مقدمه آغازین ” پایان نامه بررسی نیروگاههای انرژی تجدید پذیر ” بدین شرح است:

به منظور درک موقعیت انرژیهای تجدیدپذیر، لازم است تا نگاهی به تقاضای برق موجود بیاندازیم. امروزه یک سوم جهان (بیش از دو میلیارد نفر) هیچگونه دسترسی به برق ندارند ( و یک میلیارد نفر دیگر کمتر از ۵ ساعت در روز برق دارند) و شکاف بین کشورهای صنعتی و کشورهای در حال توسعه به شکل باور نکردنی در حال افزایش است. نگرانی های زیست محیطی، تغییرات جدی را در رفتارها برای یک تحول واقعی بسوی « پیشرفت قابل تحمل» و بنابراین، بسوی پیشرفت انرژیهای تجدیدپذیر طلب می کند.
آمار ، نیاز به توسعه انرژیهای تجدیدپذیر و تمیز را به دلایل زیر مشخص می نماید :
– فراهم کردن برق برای کشورهای در حال توسعه، مخصوصاً در مناطق دوردست و در جاهاییکه باد، خورشید ، زیست توده و انرژی زمین گرمایی به وسعت در دسترس می‌باشد؛
– محافظت از محیط زیست، مخصوصاً در دوره های دفع کم آلوده کننده ها، گازهای گلخانه ای، بویژه در زمینه تغییرات آب و هوایی ؛
– حفظ منابع انرژی فسیلی؛
در این رابطه ، کشورهای به اصطلاح « توسعه یافته»، که همزمان بزرگترین مصرف کننده برق و بزرگترین آلوده کننده می باشند، این مسئولیت را دارند که طلایه دار پیشرفت انرژیهای ارزان و تمیز باشند.
اگرچه منابع انرژی تجدیدپذیر (RES) در تولید جهانی نسبتاً حاشیه ای هستند ( بجز زیست توده و برق آبی، که اینجا مورد بررسی نیستند) ، توسعه آنها برای انرژی باد و PV خورشیدی مهم است، بخاطر اینکه میانگین نرخ رشد سالیانه آنها تقریباً ۲۵ تا ۳۰ درصد است. ایالت متحده آمریکا، ژاپن و اروپا ( بویژه آلمان، ایتالیا و دانمارک) کشورهای پیشرو هستند، اما کشورهای در حال توسعه نظیر هند، مکزیک و برزیل تلاش مهمی در توسعه منابع انرژیهای نو (RES) انجام می دهند.
تذکر مهم : اسامی و تعاریف تعدادی از شاخصها می تواند معانی مختلفی داشته باشد، تعاریفی نظیر : « فاکتور ظرفیت» ، « فاکتور قابلیت» ، « فاکتور بار» و …
ادامه مطلب...
پایان نامه ارشد : ارائه الگوریتم زمانبندی مهاجرت ماشین های مجازی جهت بهینه سازی همزمان مصرف انرژی و

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر

عنوان : ارائه الگوریتم زمانبندی مهاجرت ماشین های مجازی جهت بهینه سازی همزمان مصرف انرژی و تولید آلاینده ها در شبکه محاسباتی ابر

تعداد صفحات : 87

چکیده:

در سال های اخیر با توجه به رشد روز افزون درخواستها و پیوستن مشتریان جدید به دنیای محاسبات، سیستم های محاسباتی نیز باید تغییر کنند و قدرتمندتر وانعطاف پذیرتر از قبل عمل نمایند. در این میان محاسبات ابری به عنوان مدلی فراتر از یک سیستم ارائه شد که در حال حاضر توانایی پاسخگویی به اکثر درخواست ها و نیازمندی ها را دارد.

راه حل های مجازی سازی  به طور گسترده ای برای حل  مشکلات  مختلف مراکز داده مدرن بکار می روند  که شامل : استفاده کمتر از سخت افزار، استفاده بهینه از فضای مراکز داده , مدیریت  بالای سیستم و هزینه نگهداری می شوند.

عمده چالش هایی که  سرور های بزرگ با آن مواجه هستند عدم وجود قابلیت اطمینان  بالای سیستم  و هزینه های عملیاتی بالا به علت مصرف انرژی زیاد است. بنابراین، استقرار و زمانبندی vm ها برپایه انرژی آگاه یک ضرورت فوری برای دستیابی به این اهداف است.  زمانبندی کار برای چندین سال  توسط محققان مختلف مورد مطالعه قرار داده  شده است ، اما توسعه خوشه های مجازی و محیط  ابر پنجره جدیدی به سوی محققان جهت  رویکردهای جدید  زمانبندی  باز کرده اند .

یکی از تکنیک های مورد نیاز جهت افزایش انعطا ف پذیری و مقیاس پذیری مراکز داده ی ابری، مهاجرت است. عمل مهاجرت با اهداف گوناگونی از جمله توازن و تقسیم بار، تحمل پذیری در برابر خرابی، مدیریت انرژی، کاهش زمان پاسخ و افزایش کیفیت سرویس، تعمیر و نگهداری سرورها انجام می شود.

اجزای اصلی زمانبندی کار در محیط مجازی شامل :استقرار vmها در بین ماشین های فیزیکی و موازنه بارکاری پویا به کمک مهاجرت کارها در سراسر گره های خوشه مرکز داده می باشد.

در این پایان نامه تمرکز ما روی زمانبندی مهاجرت ماشین های مجازی در مرکز داده ابر با استفاده از الگوریتم وراثتی می باشد . نتایج شبیه سازی موید امکان پذیری و کارایی این الگوریتم زمانبندی می باشد و منجر به کاهش قابل توجه مصرف انرژی کل در مقایسه با استراتژی های دیگر می شود.و از آنجا که تمرکز ما روی انرژی عملیاتی مراکز داده است  با کاهش مصرف انرژی عملیاتی, تولید آلاینده زیستی کربن  نیز کاهش یافته  که در کاهش هزینه کاربر نقش بسزایی ایفا می کند .

ادامه مطلب...
پروژه بررسی سیستم ارتینگ دکل های انتقال و توزیع برق

موضوع این پایان نامه سیستم ارتینگ دکل های انتقال و توزیع برق و مسائل مختلف حول این مبحث میباشد.

جزئیات بیشتر این محصول:

پایان نامه جهت اخذ درجه کارشناسی
عنوان کامل: سیستم ارتینگ دکل های انتقال و توزیع برق
دسته: مهندسی برق- قدرت
فرمت فایل: WORD (قابل ویرایش)
تعداد صفحات: ١٣۶
بخشی از مقدمه:
١-١-فلسفه و تاریخچه ارت 
سیستم الکترومغناطیسی تلگراف راه دور که از سال ۱۸۲۰ مورد استفاده قرار می‌گرفت از دو یا چند سیم برای انتقال پیام‌ها به صورت پالس‌های الکتریکی استفاده می‌کرد. سپس این موضوع روشن شد (احتمالا به وسیله دانشمند آلمانی استین‌هیل) که از زمین می‌توان به عنوان مسیر برگشت برای کامل کردن مدار پیام‌ها استفاده کرد؛ به این ترتیب نیازی به سیم بازگشت نخواهد بود اما این روش در طول مسیرهای درون‌قاره‌ای که در سال ۱۸۶۱ بین سنت ژوزف، میسوری و ساکرامنتو کالیفرنیا ایجاد شده بود یک مشکل داشت. در طول فصل‌های خشک سال به علت خشک بودن زمین مقاومت آن به شدت افزایش می‌یافت که باعث اختلال در کارکرد تلگراف می‌شد.
بعدها زمانی که تلفن می‌رفت تا جایگزین تلگراف شود این نکته روشن شد که جریانی که به وسیله شبکه‌های قدرت، خطوط راه‌آهن برقی و دیگر مدارهای تلفن و تلگراف ایجاد می‌وشد موجب ایجاد اختلال در سیگنال‌های فرستاده شده می‌شود و به این ترتیب استفاده از سیستم‌های دو سیمه دوباره جایگزین شد.
١-٢-ارتباطات رادیویی 
اتصال الکتریکی به زمین می‌تواند به عنوان یک مبدا پتانسیل الکتریکی برای سیگنال‌های بسامد رادیویی در نوع خاصی از آنتن مورد استفاده قرار گیرد. قسمتی که مستقیما با زمین در ارتباط است می‌تواند از یک جسم ساده مانند یک میله هادی که در زمین فرورفته تشکیل شده باشد و یا از اتصال با لوله‌های فلزی آب ایجاد شده باشد (در این موارد این خطر وجود دارد که بعدها لوله‌ها با لوله‌های پلاستیکی تعویض شوند). یک الکترود زمین ایده‌آل باید صرف نظر از میزان جریانی که به زمین وارد می‌شود یا از آن خارج می‌شود هنواره ولتاژی برابر صفر داشته باشد. در واقع میزان مقاومت یک سیستم زمین است که می‌تواند کیفیت آن را مشخص می‌کند و این کیفیت را می‌توان به راه‌های مختلفی افزایش داد برای مثال با افزایش سطح در تماس الکترود با زمین، افزایش عمق دفن الکترود، استفاده از میله‌های الکترود متعدد، افزایش رطوبت زمین، افزایش میزان مواد معدنی رسانا در خاک و یا افزایش سطح پوشیده شده به وسیله سیستم زمین می‌توان مقاومت زمین را کاهش داد.برخی سیستم‌های آنتن‌های فرستنده در VLF، LF، MF و یا پایین‌تر از رنج SW برای عملکرد مناسب خود نیازمند یک زمین خوب هستند. برای مثال یک آنتن عمودی تک قطب نیازمند یک سیستم زمین است که معمولاً از شبکه‌ای به هم پیوسته از سیم‌ها که به طور شعاعی از مرکز به فاصله تقریبا برابر با طول آنتن دور می‌شوند، تشکیل شده‌است. در برخی موارد این سامانه زمین در بیرون تقویت می‌شود تا از تلفات جلوگیری شود.
ادامه مطلب...
دانلود پروژه حفاظت از ژنراتورها

عنوان پروژه :  حفاظت از ژنراتورها

تعداد صفحات : ۹۳

شرح مختصر پروژه :پروژه ای که در این قسمت از سایت برای دانلود آماده گشته با عنوان حفاظت از ژنراتورها می باشد.ژنراتورها وسیله ای است که نیروی الکتریسیته و برق تولید می کنند و از قطع فعالیت های روزانه یا اختلال در عملیات کاری پیشگیری می کنند. ژنراتور ها مهمترین و با ارزش ترین دستگاه های کارخانجات برق و نیروگاه ها می باشند. نقص داخلی ژنراتور علاوه بر زیانی که به خود ژنراتور وارد می کند ، باعث قطع شدن قسمت بزرگی از انرژی نیروگاه نیز می گردد و در صورتیکه زیانهای وارده بر ژنراتور در اثر نداشتن وسائل حفاظتی صحیح ، و قطع به موقع آن ازدیاد پیدا کند و گسترش یابد ، ترمیم و تعمیر محل عیب دیده ممکن است مدتها بدرازا کشد و بهره برداری از ژنراتور برای مدت زیادی متوقف گردد .

خطاهائی که در داخل ژنراتور ممکن است اتفاق افتد، می توان به دو دسته منطقه ای تقسیم کرد . که عبارتند از خطاهای استاتور و خطاهای رتور . عوامل خارجی که سبب خطا در داخل ژنراتور می شود نیز به دو دسته تقسیم می شود یکی از عواملی که در شبکه برق پیش می آید ، دیگری عواملی که در قسمت گرداننده رتورژنراتور پیش می آید و مستقیماً بر روی ژنراتور موثر است .برای تعیین اتصال دو فاز داخلی و حفاظت ژنراتور در مقابل اثرات نامطلوب آن از همه مناسب تر رله دیفرنسیال می باشد .

وظیفه دستگاه های حفاظتی ژنراتور اینست که خطا در همان مراحل ابتدائی پیدا کند ، بسنجد و باطلاع مسئولین امر برساند و در صورتیکه لازم باشد، خود جهت قطع ژنراتور از شبکه و برداشت تحریک اقدام کند .تنها تفاوت دستگاههای حفاظتی ژنراتورها، در نوع اتصال ژنراتورها به شبکه ،‌« اتصال واحد » و « اتصال شین » می باشد .نظربه اینکه اتصال سیم پیچی های ژنراتور ممکن است بصورت ستاره و یا مثلث باشد و در ضمن بعضی از ژنراتورها دارای دو دسته سیم پیچی موازی با ذاء هر فاز می باشند، طریقه حفاظت آنها نیز در مقابل اتصال حلقه متفاوت است

 

 اجزای اصلی ژنراتور الکتریکی به صورت زیرتقسیم بندی می شود:۱) موتور ۲) دستگاه تولید برق متناوب (آلترناتور) ۳) سیستم سوخت ۴) تنظیم کننده ولتاژ ۵) سیستم سردسازی و اگزوز ۶) سیتم روغنکاری ۷) شارژر باطری ۸) پنل کنترل ۹) چارچوب اصلی

در ادامه فهرست مطالب پروژه حفاظت از ژنراتورها را مشاهده میفرمایید :

ادامه مطلب...
دانلود پروژه ارزیابی تأثیر گزارشگری مالی تحت وب بر اطلاعات حسابداری

عنوان پروژه : ارزیابی تأثیر گزارشگری مالی تحت وب بر اطلاعات حسابداری

تعداد صفحات : ۱۱۹

شرح مختصر پروژه : این پروژه با عنوان ارزیابی تأثیر گزارشگری مالی تحت وب بر اطلاعات حسابداری برای دانلود آماده شده است . منظور از گزارشگری تحت وب، استفاده از امکان مبادله اطلاعات مالی با طرف های ذینفع از طریق اینترنت است. روند پرشتاب دگرگونی های صورت گرفته در حوزه ی فن آوری اطلاعات و ارتباطات به ویژه اینترنت، کلیه ابعاد جوامع بشری را تحت تأثیر قرار داده به گونه ای که برای مثال در حوزه‌ی حسابداری؛ منجر به معرفی یک  روش نوین و انقلابی برای گزارشگری مالی شده است.این روش نوین گزارشگری مالی در عصر جدید را گزارشگری مالی تحت وب گویند. با توجه به اهمیت این نوع گزارشگری که می تواند تأثیر بسزایی بر تصمیم گیری استفاده کنندگان از اطلاعات مالی داشته باشد،پژوهشگر سعی در ارزیابی تاثیر این نوع گزارشگری بر ویژگی های کیفی اطلاعات حسابداری دارد .

ساختار پروژه به این شرح می باشد: فصل اول: کلیات پژوهش ،شامل بیان مسأله و علل برگزیدن موضوع پژوهش، اهمیت و ضرورت پژوهش، هدف پژوهش و… می باشد. فصل دوم: مبانی نظری و پیشینه پژوهش می باشد.فصل سوم: روش شناسی پژوهش که این فصل شامل معرفی جامعه آماری پژوهش، نمونه و روش نمونه گیری، تعیین ابزار اندازه گیری اطلاعات، تعیین روایی و پایایی پرسشنامه و آماره آزمون می باشد.فصل چهارم: تجزیه و تحلیل داده ها که شامل اطلاعات جمعیت شناسی و آزمون فرض های آماری می باشد. فصل پنجم: نتیجه گیری و پیشنهادها که شامل نتیجه گیری براساس فرضیه های آماری و پیشنهادهای کاربردی در راستای پژوهش و پیشنهاد برای پژوهشهای آتی می باشد.

 

هدف این پروژه ارزیابی تأثیر گزارشگری مالی تحت وب بر ویژگی های اطلاعات حسابداری و همچنین بررسی میزان آشنایی مدیران شرکتهای ایران با فرهنگ گزارشگری مالی تحت وب می باشد. این نوع گزارشگری مالی که در آن اطلاعات از طریق اینترنت در همه حال در دسترس خواهد بود گزارشگری مالی به هنگام می گویند.

در ادامه فهرست مطالب پروژه ارزیابی تأثیر گزارشگری مالی تحت وب بر اطلاعات حسابداری را مشاهده میفرمایید :

ادامه مطلب...
پروژه بررسی سیستم خنک کاری موتور
پایان نامه جهت اخذ درجه کارشناسی
دسته: تحقیقات مکانیکی
عنوان کامل: پروژه بررسی سیستم خنک کاری موتور
فرمت فایل: WORD (قابل ویرایش)
تعداد صفحات پروژه: 72
______________________________________________________
بخشی از مقدمه:
موازنه جریان های مختلف انرژی ، توسط محقیقن بسیاری  در موتور های احتراق داخلی مورد بررسی قرار گرفته است . نتایج نشان می دهد که میزان انرژی که از طریق انتقال حرارت از موتور دفع می شود . سهم عمده ای از کل انرژی است که به موتور داد ه می شوند در برخی موارد ( بخصوص در دور های کم ) حتی بیشتر از کار خروجی موتور می باشد .
به طور متوسط میزان انرژی دفع شده از طریق انتقال حرارت در حدود 30 تا 35 درصد کل انرژی ورودی به موتور را می تواند شامل شود . بنابر  شرایط کارکرد موتور ، شرایط هوا دهی روی آن ، تخلیه هوا از محفظه موتور و روغن کاری ، دفع درصدی از این انرژی حرارتی بر عهده رادیاتور خواهد بود . البته در طراحی سیستم خنک کاری ، ضریب اطمینان لازم برای اعمال این درصد در نظر گرفته می شود .
ضرورت خنک کاری در موتور احتراق داخلی :
موتور های احتراق داخلی که از سوختهای هیدروکربنی استفاده می کنند . در دمای کاری بالایی قرار می گیرند به طوری که گاز های درون سیلندر ، به دمائی بیش از 2500 K می رسند و این موجب گرم شدن قطعات می شود . حال اگر این قطعات توسط خنک کننده ای مثل آب و یاهوا خنک نشوند ، شاهد آسیب دیدگی کلی موتور خواهیم بود . زیرا در دمای بالا مقاومت مکانیکی قطعات درگیر تا حدود زیادی کاهش می یابد و نیز در هنگام احتراق پدیده کوبش را شاهد هستیم .این دو عامل در یکدیگر و حتی هر یک به تنهایی ، به قطعات آسیب شدید می رسانند .
در برخی موارد نیز به دلیل انبساط بیش از حد ، قطعات درگیر ، در یکدیگر گیر خواهند کرد . همچنین دمای کاری بالا ، راندمان حجمی نا مطلوب را به دنبال دارد . که این در کنار پدیده کوبندگی موجب افت راندمان موتور خواهد شد . بنابراین با توجه به مقدمات فوق سه دلیل مهم لزوم خنک کاری را به شکل زیر می توان خلاصه نمود :
1-افزایش راندمان حجمی 
2-اطمینان از یک احتراق مناسب 
3-اطمینان از عملکرد مناسب قطعات مکانیکی
ادامه مطلب...
ارائه چارچوبی برای امکان پذیری استخراج نیازمندی‌ها در سازمان‌های بزرگ مقیاس به زبان فارسی مبتنی

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی فناوری اطلاعات

عنوان : ارائه چارچوبی برای امکان پذیری استخراج نیازمندی‌ها در سازمان‌های بزرگ مقیاس به زبان فارسی مبتنی بر نیازمندی‌های عملیاتی و غیر عملیاتی

 پایان نامه مقطع کارشناسی ارشد رشته مهندسی فناوری اطلاعات

تعداد صفحه : 91

چکیده:

در سازمان‌ها و سامانه‌های بزرگ مقیاس و پیچیده، جهت تعیین نیازمندی‌های عملیاتی و غیر عملیاتی در گستره‌ای که ممکن است هزاران ذینفع را در بر گیرد، دانشی جهت استخراج نیازمندی‌ها احساس می‌گردد. با توجه به اینکه سازمان‌ها، داده‌ها و اطلاعات بسیاری در تصرف خود دارند و با فلج ساختن اطلاعات یک چالش کلیدی در تصمیم گیری تشکیلات سازمانی ایجاد می‌نمایند، فرایند کشف دانش از پایگاه داده سازمان مطرح گردیده که یک فرایند علمی برای شناسایی الگوهای معتبر، بالقوه مفید و قابل فهم از داده‌ها می‌باشد.در این تحقیق قصد داریم با بکار گیری داده کاوی به عنوان مرحله‌ای از فرایند کشف دانش به ارائه‌ی چارچوبی جهت استخراج و اولویت بندی نیازمندی‌ها در سازمان‌های بزرگ مقیاس پرداخته که در نتیجه کار خود، افزایش رضایتمندی را به همراه می‌آورد. بدین صورت که ابتدا با توجه به فرکانس تکرار و درجه اهمیت، نیازمندی‌ها را با استفاده از الگوریتم K-Means خوشه بندی کرده سپس با روشی به نام رتبه بندی و بهره گیری از ماتریس ارزش محور به اولویت بندی نیازمندی‌ها می‌پردازیم. مطالعه موردی چارچوب پیشنهادی، پایگاه داده سامانه مدیریت شهری 137 شهرداری تهران می‌باشد.بر اساس نتایج بدست آمده می‌توان خوشه‌های متفاوت از نیازها با اولویت اقدام متفاوت را معرفی نمود.

ادامه مطلب...
ارائه مدلی برای شناسایی عوامل اثرگذار و ضریب تاثیر آنها در سود و زیان بیمه شخص ثالث خودرو شرکتهای ب

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر

گرایش : نرم افزار

عنوان : ارائه مدلی برای شناسایی عوامل اثرگذار و ضریب تاثیر آنها در سود و زیان بیمه شخص ثالث خودرو شرکتهای بیمه بوسیله روشهای داده کاوی مطالعه موردی شرکت سهامی بیمه ایران

تعداد صفحات : 106

چکیده

بررسی اطلاعات بیمه های اتومبیل نشان داده عواملی چون نوع استفاده خودرو، داشتن گواهینامه رانندگی، نوع گواهینامه و تطابق یا عدم تطابق آن با وسیله نقلیه، مبلغ حق بیمه، میزان تعهدات بیمه نامه، کیفیت خودروی خودرو سازان، سن راننده، سواد راننده، عدم تطابق حق بیمه با مورد بیمه، تاخیردرتمدید بیمه نامه، در سود و زیان شرکت های بیمه تاثیر داشته اند.

هدف این پایان نامه شناخت عوامل اثرگذار و ضریب تاثیر آنها در سود و زیان بیمه شخص ثالث خودرو شرکت های بیمه با استفاده از روش داده کاوی و  سپس انتخاب الگوریتمی که بهترین میزان دقت پیش بینی برای تشخیص این عوامل را داشته اند می باشد.

نتیجه حاصل از این پژوهش نشان می دهد که روشهای داده کاوی با استفاده از الگوریتم های دسته بندی با دقت بالای 91% و الگوریتم های درخت تصمیم با دقت بالای 96% و الگوریتم های خوشه بندی با ایجاد خوشه های قابل قبول  قادر به ارائه مدلی برای تشخیص عوامل اثرگذار و تعیین میزان اثر آنها در سود و زیان بیمه نامه شخص ثالث خودرو خواهند بود.

ادامه مطلب...
ارزیابی الگوریتم‌های کنترل همروندی سیستم مدیریت پایگاه داده‌ها، از طریق مدل‌سازی با پتری رنگی

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته کامپیوتر

عنوان : ارزیابی برخی الگوریتم‌های کنترل همروندی در سیستم مدیریت پایگاه داده‌ها، از طریق مدل‌سازی با پتری رنگی

تعداد صفحه : 123

ساختار پایان‌نامه

این پایان‌نامه به فرم زیر سازماندهی شده است.

در فصل دوم پیشینه‌ی تحقیق و مطالب مرتبط آورده شده است. در این فصل یک مرور کلی بر کلیات مطلب، اهداف، پیشینه‌ی تحقیق و سایر کارهای انجام شده در این زمینه خواهیم داشت. در پیشینه تحقیق، می‌پردازیم به این که تا کنون چه الگوریتم‌هایی ارائه شده، ارزیابی از طریق چه روش‌هایی صورت گرفته است و مانند آن‌ها. همچنین تعدادی از پارامترها و معیارهای ارزیابی الگوریتم‌های کنترل همروندی را بررسی خواهیم نمود. علاوه بر آن بعضی روش‌های پیاده‌سازی و شبیه‌سازی‌ موجود مانند پیاده‌سازی در مقیاس کوچک، شبیه‌سازی از طریق مدل مارکف، شبیه‌سازی از طریق شبکه‌های پتری و مانند آن‌ها را بررسی می‌کنیم و به مزایا و معایب آن‌ها اشاره‌ای خواهیم داشت. همچنین روش تجزیه و تحلیل از طریق صف نیز بطور مختصر مورد بررسی قرار می‌گیرد.

در فصل سوم انواع الگوریتم‌های کنترل همروندی پایه‌ای موجود را بررسی خواهیم کرد. در این میان تعدادی از الگوریتم‌های کنترل همروندی مانند پروتکل قفل 2PL که احتمال بن‌بست در آن وجود دارد و تکنیک‌های WW و WD که تکنیک‌های پیش‌گیری از بن‌بست هستند را مورد مطالعه قرار می‌دهیم. مزایا و معایب هر یک از این الگوریتم‌های کنترل همروندی پایه‌ای را نیز تا حدودی بررسی خواهیم نمود.

در فصل چهارم نیز به بررسی شبکه‌های پتری، مخصوصاً شبکه‌های پتری رنگی که یکی از ابزارهای بسیار مفید برای شبیه‌سازی الگوریتم‌های کنترل همروندی هستند، پرداخته می‌شود.

در فصل پنجم نحوه‌ی مدل‌سازی الگوریتم‌های مورد نظر با استفاده از شبکه‎های پتری بیان شده است؛ که شامل تعریف مجموعه‌های رنگ، نشانه‌گذاری‌های اولیه، متغیرهای موجود در مدل، شرح عملکرد توابع مدل و تعیین اولویت برای فایر شدن گذار مورد نظر از بین گذارهای فعال می‌باشد.

در فصل ششم که همان بخش پایانی است مدل‌ها بر اساس پارامترهای متفاوت بررسی و با هم مقایسه شده‌اند. آزمایش‌های مورد نیاز صورت گرفته و هرکدام چندین بار تکرار گردیده‌اند. نتایج میانگین‌گیری شده و نمودارهای لازم جهت مقایسه ترسیم شده‌اند. در نهایت نیز نتیجه‌گیری کلی از مباحث بیان شده مشاهده می‌شود و پیشنهاداتی برای کارهای آینده ارائه خواهد شد.

ادامه مطلب...
حفاظت از کپی غیر مجاز کپی رایت متون دیجیتال با استفاده ازروش پنهان نگاری فاصله بین خطوط حامل و مقای

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته کامپیوتر

گرایش :نرم افزار

عنوان : حفاظت از کپی غیر مجاز کپی رایت متون دیجیتال با استفاده ازروش پنهان نگاری فاصله بین خطوط حامل و مقایسه موقعیت کلید در متن

تعداد صفحات :104

ادامه مطلب...
پروژه بررسی پست هاي گازي GIS

جزئیات بیشتر این محصول:

پایان نامه جهت اخذ درجه کارشناسی
عنوان کامل: پست های گازی GIS
دسته: مهندسی برق - قدرت
فرمت فایل: WORD (قابل ویرایش)
تعداد صفحات: ١٣۶
________________________________________________________
- چکیده:
با توجه به افزایش مصرف, تولید انرژی الکتریکی بایستی در ارتباط کامل با نحوه توزیع و پخش انرژی آن باشد. در مراکز شهری چگالی انرژی موجب گشته تا با توجه به کمبود فضا و ایمنی لازم در سیستم, بکار گیری پستهای GIS   در مقایسه با انواع دیگر پستها در کشور ما مورد بررسی و توجه قرار گیرد که این اهمیت چه از نظر فنی و چه از نظر اقتصادی و با توجه به روند تکنولوژی در آینده مورد توجه ما می باشد و همچنین انرژی مورد نیاز انواع مختلف مصرف کننده ها در هر موقعیت و به هر میزان, تنها از طریق شبکه هایی امکان پذیر است که کلیه مراکز مصرف و تولیدشان با یکدیگر در ارتباط کامل و به هم پیوسته باشد. با احداث شبکه های سراسری که ظرفیت مناسب و کافی دارند, می توانیم یک تبادل انرژی بین مراکز مصرف کننده ها و تولید کنندگان داشته باشیم. که جهت این تبادل انرژی نیاز به افزایش ولتاژ و سپس کاهش آن می باشد که در این خصوص ایستگاههای فشار قوی مناسب این مشکل را بر طرف کرده و گام اساسی در جهت پیش برد این مساله برداشته است. و با توجه به محدودیت های محیطی و نامناسب بودن وضعیت جوی و استراتژیکی منطقه این امکان را به ما می دهد که با احداث و توسعه پست های فشارقوی از نوع بسته GIS این تبادل انرژی را به نحو مطلوبی در مراکز مصرف و حوزه شهری داشته باشیم که در این میان مسئله اقتصادی در این مراکز از اهمیت ویژه ای برخوردار بوده که پستهای سربسته GIS تا حدودی به این مسائل جواب گو می باشد.
این پایان نامه شامل ده فصل, می باشد که در فصل اول به بررسی عایق های گازی SF۶ که در پستهای سربسته گازی بیشترین کاربرد را دارد می پردازیم. در فصل دوم به نقش و نوع پستهای فشار قوی در شبکه های انتقال و پخش انرژی و همچنین سطح ولتاژهای موجود در ایران بحث می شود. در فصل سوم به نقش و اساس پستهای GIS و همچنین تکنولوژی سیستمهای GIS, مزایا و معایب پستهای GIS در صنعت برق اشاره می شود. سیستمهای GIS داخلی (indoor) و بیرونی (out door) و همچنین هزینه های مربوط به احداث آنها در فصل چهارم آورده شده است. بررسی جنبه های اقتصادی سیستمهای GIS از نظر هزینه و فاکتورهای موثر در آن و ارزیابی پروژه از لحاظ اقتصادی و نیز مقایسه سیستم های GIS با AIS  در فصل پنجم بحث شده است. در فصل ششم به عیب یابی و تعمیرات تجهیزات پستهای GIS پرداخته می شود. نحوه نگهداری پستهای GIS نیز در فصل نهم بحث شده است و فصل آخر به نتیجه گیری کلی و پیشنهادات اختصاص دارد. در ضمن نمونه ای از تجهیزات انواع پستهای GIS در ضمیمه های یک و دو آورده شده است.
ادامه مطلب...
ارائه یک الگوریتم رهگیری هدف پویا بر اساس پیش‌بینی در شبکه حسگر بی‌سیم

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر

گرایش : معماری کامپیوتر 

عنوان : ارائه یک الگوریتم رهگیری هدف پویا بر اساس پیش‌بینی در شبکه حسگر بی‌سیم

تعداد صفحه : 108

چکیده

با پیشرفت تکنولوژی ساخت وسایل الکترونیکی و مقرون به صرفه شدن شبکه‌های حسگر در مقیاس‌های بزرگ، شبکه­ های حسگر بی­سیم زمینه‌های تحقیقاتی را با رشد سریع و جذابیت بسیار فراهم می­کنند که توجهات زیادی را در چندین سال اخیر به خود جلب کرده است. شبکه‌های حسگر بی‌سیم با مقیاس بزرگ حاوی چند صد تا چند ده هزار حسگر، پهنه وسیعی از کاربردها و البته چالش‌ها را به همراه دارند. ویژگی‌های خاص این شبکه‌ها، امکان استفاده از آن‌ها را در کاربردهایی مانند کنترل و بررسی مناطق حادثه‌خیز، حفاظت مرزها و مراقبت‌های امنیتی و نظامی فراهم می­کنند. یکی از مهم‌ترین کاربردهای متصور برای این شبکه‌ها کاربرد رهگیری هدف می‌باشد. در این کاربرد، شبکه‌های حسگر بی‌سیم از حسگرهای تشکیل‌دهنده این شبکه جهت حس کردن و تشخیص یک هدف خاص و دنبال کردن آن در ناحیه تحت نظارت شبکه استفاده می‌شود. به دلیل اینکه حسگرهای موجود در این نوع شبکه‌ها دارای محدودیت انرژی می‌باشند و ارتباطات بین حسگرها به صورت بی‌سیم انجام می­پذیرد، توجه به مسئله مصرف توان و رهگیری بدون خطا چندین هدف متحرک به صورت همزمان در این شبکه‌ها اهمیت فراوانی دارند. الگوریتم‌های رهگیری هدف در شبکه‌های حسگر، از نظر کاربرد و عملکرد آن‌ها، به چهار دسته­ی پروتکل مبتنی بر پیام، مبتنی بر درخت، مبتنی بر پیش‌گویی و مبتنی بر خوشه‌بندی، تقسیم می­گردند. در این میان پروتکل‌های مبتنی بر خوشه‌بندی از نظر مصرف انرژی بهینه هستند. تاکنون برای رفع مشکل انرژی روش‌های زیادی طرح گردیده است که می‌توان به الگوریتم‌های رهگیری اهداف سریع، DPT و CDTA اشاره کرد. الگوریتم رهگیری اهداف سریع قابلیت رهگیری اهداف سریع را دارا می‌باشد ولی از معایب آن می‌توان به  بالا بودن میزان ارتباطات در شبکه به دلیل کوچک بودن خوشه‌ها اشاره کرد. الگوریتم DPT دارای یک الگوریتم پیش بین با پیچیدگی کم می‌باشد ولی از معایب آن می‌توان به قادر نبودن آن  به رهگیری چندین هدف به صورت همزمان اشاره کرد. از معایب الگوریتم CDTA می‌توان به عدم وجود رویه تصحیح خطا برای شناسایی مجدد هدف گم شده، تقسیم‌بندی شبکه بر اساس مدل شبکه و قادر نبودن آن  به رهگیری چندین هدف به صورت همزمان اشاره کرد. در الگوریتم پیشنهادی از یک دیدگاه خوشه‌بندی بر اساس پیش‌بینی به منظور مقیاس‌پذیر بودن شبکه و مصرف بهینه انرژی استفاده گردیده است تا در برابر خرابی‌های احتمالی حسگرها و پیش‌بینی‌های اشتباه مکان هدف مقاوم باشد. در این الگوریتم، رویه تصحیح خطایی ارائه گردیده است تا در زمان‌هایی که هدف به دلیل سرعت بالای خود و یا تغییر جهت‌های ناگهانی از برد حسگرها خارج گردید، الگوریتم قادر به شناسایی مجدد هدف باشد. نتایج بدست آمده توسط شبیه‌ساز نشان می­دهند که الگوریتم پیشنهادی قادر به رهگیری چندین هدف به صورت همزمان می‌باشد و همچنین الگوریتم پیشنهادی با کم کردن ارتباطات بین خوشه­ای و احتمال گم­شدن هدف مصرف انرژی در شبکه‌های حسگر را تا حد امکان کاهش می­دهد.

 

ادامه مطلب...
 ارائه مدلی برای حل مسائل ارضاء محدودیت با استفاده از سیستمهای چند عامله

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر 

گرایش : هوش مصنوعی

عنوان : ارائه مدلی برای حل مسائل ارضاء محدودیت با استفاده از سیستمهای چند عامله

تعداد صفحات : 101

چکیده

سیستمهای چند عامله سیستمهای محاسباتی هستند که در آن چندین عامل جهت رسیدن به یک هدف خاص با هم در تعامل هستند و با هم کار می کنند. دلیل پیدایش اینگونه سیستمها وجود موقعیتهایی است که در آن یک مسأله بایستی در یک مد توزیع شده حل شود. به عنوان مثال در شرایطی که استفاده از یک کنترل کننده مرکزی ممکن نیست و یا اینکه می­خواهیم استفاده مناسبی از منابع توزیع شده و یا امکانات محاسباتی داشته باشیم. با اینکه زمان زیادی از معرفی این گونه سیستم‌ها نمی‌گذرد ولی استفاده از روش‌های طراحی بر اساس عامل یکی از موفق‌ترین راه‌حل‌های موجود بوده و حاصل این شیوه طراحی یعنی سیستم‌ حل مسائل به صورت توزیع‌شده از بهترین سیستم‌ها به شمار می‌آید و به عنوان ابزار جدیدی برای حل انواع فرآیندهای انسانی شناخته می‌شود. مسأله ارضاء محدودیت توزیع شده سالهاست که در حوزه تحقیق سیستمهای چند عامله مورد توجه زیادی قرار گرفته است. و این مسأله بدان علت است که بسیاری از مسائل اعم از مسائل کلاسیکی همانند مسأله n-وزیر و رنگ آمیزی گراف گرفته و تا مسائل کاربردی بزرگ دنیای واقعی همچون زمانبندی و برنامه ریزی و تخصیص منابع می­توانند برای حل شدن به عنوان یک مسأله مسأله ارضاء محدودیت توزیع شده فرموله شوند. بنابراین ارائه یک شیوه جدید و یا اصلاح شیوه های فعلی تاثیر زیادی بر دامنه تحقیقاتی این فیلد می­گذارد. آنچه در این پایان­نامه ارائه می­شود ارائه تکنیکی جدید برای حل مسائل ارضاء محدودیت توزیع شده است. این تکنیک جدید محدودیتها را در یک سیستم که ترکیبی از سیستمهای توزیع شده و متمرکز است اداره و کنترل می­کند که با بهره گیری از یک سری ویژگیهای خاص تعریف شده از سیستمهای ترکیبی دیگر موجود متمایز می­شود. نتایج حاصله نشان می دهد که این الگوریتم در مسائل با مقیاس بزرگ کارایی خوبی خواهد داشت و تقریبا یک پیچیدگی زمانی خطی را با افزایش مقیاس مسأله به دست می­آورد. همچنین مقایسه این روش با چند روش دیگر بهبود عملکرد این روش را در پارامترهای مختلف نسبت به دیگر روشها نشان می­دهد.

 

ادامه مطلب...
پایان نامه ارائه‌ چارچوبی در راستای بهبود پیش‌بینی وضعیت ترافیک

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر

گرایش : هوش مصنوعی

عنوان : ارائه‌ چارچوبی در راستای بهبود پیش‌بینی وضعیت ترافیک

تعداد صفحه : 109

 

چکیده

امروزه موفقیت سیستم­های حمل­و­نقل هوشمند، نه تنها به اطلاعات وضعیت فعلی ترافیک، بلکه تا حد زیادی به آگاهی از وضعیت ترافیکی دقایق آینده وابسته است. از این­رو، تحقیقات زیادی در زمینه­ی پیش­بینی­ کوتاه­­مدت وضعیت ترافیکی انجام شده است. هرچند تاکید اکثریت آنها، تنها بر روی اعمال الگوریتم­های مختلف بمنظور یادگیری داده­های ترافیکی و ارائه­­ی مدل، بر اساس داده­های جمع­آوری شده از وضعیت فعلی و پیشین می­باشد. حال آنکه، در جهت رسیدن به الگوریتمی کارا، لازم است تا ماهیت نوساناتی و وابسته به زمان داده­ها نیز در روند یادگیری مدل لحاظ شود. در این راستا، این پایان­نامه با مطالعه­ی توزیع جریان­های ترافیکی، سعی در جداسازی رفتارهای مربوط به پریودهای اوج و غیر­اوج ترافیکی و همچنین استفاده از مفاهیم و دانش بدست­آمده برای آموزش مدل­های متمایز متناظر با رفتارهای مختلف ترافیکی دارد. شایان ذکر است که حتی در صورتی­که زمان مرتبط با داده‌ها صریحاً در اختیار نباشد، روش پیشنهادی با بررسی توزیع داده­، روند جریان‌های ترافیکی را تشخیص می­دهد. بدین ترتیب، رندوم فارست بعنوان مدل پیش­بینی­کننده، از زمینه­ی داده­ی مورد آموزش باخبر بوده و بر این اساس احتمال گیر­اُفتادن آن در بهینه­ی محلی کمتر می­شود. به منظور ارزیابی روش ارائه شده، آزمایشاتی بر روی داده­­ی بخش ترافیک مسابقه بین­المللی داده­کاوی سال 2010 انجام شد. نتایج حاصل، مؤید کارایی و مقیاس­پذیری روش پیشنهادی در مقایسه با دیگر نتایج بدست آمده توسط تیم­های برتر مسابقه، می­باشد.

ادامه مطلب...
 دانلود پایان نامه ارشد درباره مخازن نرم افزاری

مقدمه

آنچه که بین تمام علوم مشترک است، حجم وسیعی از اطلاعات و داده به شکل­های مختلف است، که همراه با پیشرفت و وسعت علوم بزرگتر و ارزشمندتر می­شود. با رشد سریع علوم کامپیوتر و استفاده از آن در چند دهه اخیر، تقریبا همه سازمان­ها در پروژه­های مختلف خود حجم عظیمی داده در پایگاه­های داده ذخیره می­کنند. این سازمان­ها و کسانی که به نوعی در پروژه­ها سهیم هستند به فهم این داده­ها و بهتر بگوییم کشف دانش نهفته در آن نیازمندند. این نیاز، باعث به­وجود آمدن حوزه جدید میان رشته­ای کشف دانش و داده­کاوی[1] شده است، که حوزه­های مختلف همچون پایگاه داده، آمار، یادگیری ماشین را برای کشف دانش ارزشمند نهفته در اطلاعات و داده­ها را با هم تلفیق می­کند. اصطلاح Data­ Mining همان­طور که از ترجمه آن به معنی داده­کاوی مشخص می‌شود، به مفهوم استخراج اطلاعات نهان، و یا الگوها وروابط مشخص در حجم زیادی از داده‌ها در یک یا چند بانک اطلاعاتی بزرگ است.

هر نرم ­افزار در طول فرآیند­تولید و پس از آن، انبوهی از اطلاعات ­و مستندات دارد که قابل کاوش و استفاده­ مفید است. این داده­ها معمولا در پایگاه­ داده­هایی به­نام مخازن نرم­افزاری[2] ذخیره و نگهداری می­شوند. مخازن نرم­افزاری نمایش دقیقی از مسیر­تولید یک سیستم ­نرم­افزاری ارائه می­دهند]1 .[هدف ازکاوش مخازن نرم­افزاری[3]MSR استفاده هوشمند از تحلیل داده­های نهفته در آن­ها برای کمک به تصمیم­گیری های بهتر و سریعتر در پروژه تولید و پشتیبانی آن­ها است. آن­چه که در اینجا مورد توجه این تحقیق است، استخراج اطلاعات مهم برای همه ذینفعان پروژه نرم­افزاری است. این اطلاعات از مجموعه داده­های مرتبط با خطا­های رخ داده در طول تولید و پشتیبانی پروژه استخراج می شود.

در سال­های گذشته مدل­های مختلفی با استفاده از الگوریتم­های داده­کاوی، تشابه متن و دسته­بندی و خوشه­بندی داده­ها ارائه شده. اما از آن­جا که جستجو و استخراج اطلاعات از میان داده­های متنی نیازمند روشی هوشمند برای تطبیق جنبه­های معنایی و دستوری است، نیاز به مدل­هایی که از الگوریتم ها معنایی استفاده­ کنند وجود دارد.در تحقیق­ های مورد مطالعه این نیاز حس می­شود.

 

 

 

سعی بر این شده که با استفاده از الگوریتم معنایی برپایه مجموعه تشابه جملاتبر پایه LCS و تشابه کلمات (SOC-PMI )، روی مستندات ذخیره­ شده در مخازن خطای نرم­افزار، مانند راه­حل­های ارائه ­شده برای خطا­های مشابه مدل­های قبلی را تکمیل­کرده و جوابی بهینه و سریع­تر برای خطای پیش آمده پیدا کنیم. همچنین می­توان زمانی تخمینی نیز برای تصحیح خطا پیش­بینی کرد تا راهنمای تیم توسعه و ذینفعان دیگر نرم­افزار باشد. همچنین دید بهتری نسبت به روند پیشرفت و تکامل نرم­افزار مورد نظر ارائه ­شود.

 

2.1. تعریف مسئله

یکی ­از مراحل مهم و اساسی در مهندسی ­و تولید نرم­افزار مرحله یافتن و رفع خطا­های موجود در نرم­افزار است. این مرحله از تولید نرم­افزار جزء وقت­گیرترین و پرهزینه ­ترین مراحل به­ حساب  می­آید]4[. سال­هاست که دانش داده ­کاوی و استخراج دانش به کمک مهندسین نرم­افزار آمده­است. رفع خطا در فرآیند تولید بسته به مدل توسعه نرم ­افزار چندین بار انجام می­گیرد. خطا­ها و مشکلات برطرف ­شده معمولا به روش­های مختلف تحت عنوان مخازن خطای نرم افزار، مستند­سازی و ذخیره می­شود. این مخازن منابع عظیم دانش هستند، که کمک بزرگی در تسریع زمان تولید نرم­افزار و پایین­آوردن هزینه­ها خواهد­بود]5[. روش­هایی نیاز­است که این دانش و اطلاعات مفید استخراج شود. در این تحقیق روشی برای سرعت بخشیدن به رفع­خطای جدید با استفاده از اطلاعات موجود در مخازن خطای نرم­افزار، ارائه شده ­است. مدل­های زیادی تا به­حال ارائه ­شده که یا مکمل هم بوده یا از الگوریتم­های جدید استفاده شده ­است. مدل­های پیشنهادی با استفاده از تشابه متن همگی از الگوریتم­ های معمولی و ساده استفاده کرده اند. در این مدل ها به این نکته مهم کمتر توجه شده که مخازن حجم بالا و پیچیده­ای از اطلاعات را شامل می­شوند، که بعضاً تشابه بین کلمات و معانی مختلف یک جمله نتیجه ­گیری را سخت­تر می­کند. پس نیاز به الگوریتم­های معنایی در بررسی تشابه متن احساس می­شود. همچنین باید به این نکته مهم توجه کرد که الگوریتم معنایی انتخاب ­شده بهینه است و قادر باشد میان این حجم اطلاعات که از سوی کاربران مختلف ثبت می­شود، بهترین جواب با تشابه بیشتر را انتخاب کند. اگرچه تا به­حال روش­های بسیاری برای تکمیل مخازن خطا و استفاده از دانش نهفته در آن صورت­گرفته اما می­توان گفت که ضرورت اهمیت به تشابه معنایی بین داده­ها در نظر گرفته نشده ­است. در این تحقیق سعی شده که این ضعف در جستجو و بهره­ گیری دانش نهفته در این مخازن داده پوشش داده ­شود.

مدل ارائه ­شده در اینجا ابتدا لیستی از خطا­های مشابه خطای جدید با استفاده ازیک الگوریتم تشابه معنایی مناسب، با توجه به اطلاعات متنی ذخیره­شده ارائه می­دهد. در مرحله بعد این خطا­ها براساس چرخه ­عمر خطا با استفاده از روش خوشه­ بندی K-means، خوشه بندی می­شوند.

همچنین میانگین تشابه هر دسته به خطای جدید، گروه منتخب را مشخص می کند. خطاهای موجود در این گروه، راه حل­های پیشنهادی برای هر کدام، کمکی برای تسهیل و تسریع در رفع خطا است و میانگین طول­عمر گروه تخمینی بر پیچیدگی و زمان حل­ مشکل خواهد بود.

 

تعداد صفحه : 85

ادامه مطلب...
 دانلود پایان نامه ارشد : شناسایی تشکل‌های پنهان بر اساس لینک و محتوا

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر

گرایش : هوش مصنوعی

عنوان : شناسایی تشکل‌های پنهان بر اساس لینک و محتوا

تعداد صفحه : 88

چکیده

امروزه شبکه ­های اجتماعی نظیر فیسبوک از محبوبیت زیادی برخوردار شده اند، چرا که به مردم سرتاسر جهان این اجازه را میدهد که بدون تماس فیزیکی، با دوستان خود ارتباط برقرار کرده، برای آنها پیغام گذاشته و نظرات خود را در مورد موضوعات گوناگون بیان کنند. شناسایی تشکل ها در شبکه های اجتماعی کاربرد بسیار زیادی در زمینه های مختلف دارد، بنابراین این موضوع یک زمینه­ ی تحقیقاتی بسیار جالب در میان محققان بسیاری از رشته ها است. مطالعات پیشین تنها از اطلاعات ساختاری و لینک­های موجود در شبکه استفاده میکردند و اطلاعات مفید دیگری که در شبکه وجود داشتند مورد غفلت واقع میشدند. در حالی که در بسیاری از شبکه های اجتماعی، داده­ های بسیار مفیدی وجود دارد که توسط کاربران تولید می­شوند، نظیر محتوای متن های تولید شده توسط هر کاربر. با قرار دادن این اطلاعات در کنار ساختار لینک شبکه می­توان تعاملات و ارتباطات بین کاربران را تفسیر کرد. در این مطالعه با استفاده از اطلاعات فوق، نشان داده می­شود کاربرانی که لینک های نزدیکی به هم دارند در یک حوزه کاری شبیه به هم قرار می­گیرند. به­طور خاص­تر،در این پژوهش مدلی برای کشف تشکل ها ارائه می­گردد که در ابتدا سعی میکند با استفاده از یک راهکار بیزی تشکل ها را بر اساس ساختار لینک شبکه شناسایی کند. سپس با استفاده از ابزار های پیمایش متنف در صورتی که متن های منتسب به یک کاربر دارای شباهت­های زیادی با عناوین اسناد منتسب به یک تشکل داشته باشد، آن کاربر به تشکل جدید منتقل می­شود. از این رو، افرادی که در یک تشکل مشترک هستند در یک حوزه­ی کاری شبیه به هم نیز قرار دارند. نتایج حکایت از توانایی روش پیشنهادی در کشف تشکل­هایی را دارد که به لحاظ معنایی کاملا معنی دار هستند.

 

ادامه مطلب...
 پایان نامه ارشد:ارائه یک شاخص نوین برای سنجش سطح خستگی مغزی در حین فعالیت ذهنی از روی سیگنال EEG

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته کامپیوتر

عنوان : ارائه یک شاخص نوین برای سنجش سطح خستگی مغزی در حین فعالیت ذهنی از روی سیگنال EEG

 

پایان‌نامه کارشناسی ارشد در رشته مهندسی کامپیوتر (هوش مصنوعی)

تعداد صفحات 99

فصل اول

1- مقدمه

  • مقدمه

خستگی پدیده ای رایج در زندگی روزمره ماست. یک تعریف مشترک از خستگی این است که خستگی حالتی است که به دنبال یک بازه از فعالیت ذهنی یا بدنی ایجاد می‌شود که توسط کاهش در توانایی برای کار کردن مشخص می‌شود.

اولین بار مفهوم خستگی ذهنی توسط گرندجین[1] معرفی شد [1]، که به وضوح خستگی ذهنی را از خستگی فیزیکی متفاوت کرد. او خستگی بدنی را در اثر کاهش عملکرد سیستم عضلانی و خستگی ذهنی را با کاهش عملکرد ذهنی و احساس خستگی تعریف کرد.

خستگی دارای پیامدهای عمده ای در تلفات جاده و در حال حاضر یکی از مساﺋﻞ عمده در صنعت حمل و نقل است. با توجه به کار های اولیه در این مورد، خستگی راننده 35-45 درصد از تصادفات جاده را تشکیل می داده است [2]. علاوه بر این خستگی باعث کاهش کارایی ذهنی خصوصاً در افراد متخصصی که در حین کار فعالیت ذهنی بسیار بالایی دارند (برنامه نویسان حرفه‌ای کامپیوتر و طراحان سیستم‌های صنعتی که در قسمت‌های R&D شرکت‌ها کار می‌کنند) و همچنین باعث افزایش زمان پاسخ گویی در افراد می‌شود. در نتیجه علاوه بر اثراتی که خستگی ذهنی بر پایین آمدن کارایی افراد در موقعیت‌های شغلی مختلفی دارد، می‌تواند عامل مهمی در تصادفات جاده‌ها و سنجش کارایی افراد در کارخانجات باشد. در نتیجه، از آنجا که با خسته شدن، فرد در اجرای کار با قدرت عملکرد کافی دچار مشکل می‌شود و با توجه به رابطه‌ای که خستگی در افزایش احتمال تصادفات در جاده‌ها و کارخانجات دارد [3 و 4]، مشخص کردن میزان خستگی فرد، در کاهش چنین تصادفاتی و همچنین افزایش قدرت عملکرد افراد ضروری به نظر می‌رسد. در نتیجه ما در این تحقیق به بررسی خستگی ذهنی پرداخته‌ایم (در ادامه خستگی به معنی خستگی ذهنی استفاده شده است).

  • تعریف مسئله

از زمان تعریف خستگی تاکنون، در زمینه تشخیص میزان خستگی روش‌های متفاوتی مورد بررسی قرار گرفته است. در بین این روش‌ها، به نظر می‌رسد سیگنال ثبت شده از فعالیت الکتریکی مغز[2](EEG) مشخص کننده بهتری از میزان خستگی است و قدرت پیش‌بینی بیشتری در تشخیص خستگی مغزی دارد [5].

EEG در اصل به عنوان یک روش برای تحقیق در مورد فرایندهای مختلف ذهنی ارائه شد. اولین ثبت فعالیت الکتریکی مغز از مغز خرگوش و میمون توسط کاتون[3] در سال 1875 گزارش شد [6]، اما سال 1929 بود که هانس برگر[4] [7] اولین اندازه گیری از فعالیت‌های الکتریکی مغز را در انسان گزارش کرد. پس از آن، این سیگنال در تشخیص‌های کاربردی به ویژه بیماری‌های مختلف به کار برده شد. از آنجا که به طور گسترده‌ای پذیرفته شده است که تغییرات مشخصه در شکل موج EEG و باندهای قدرت آن را می‌توان برای مشخص کردن انتقال از هوشیاری به خواب و مراحل مختلف خواب مورد استفاده قرار داد [8]، EEG به عنوان یک استاندارد برای اندازه گیری سطح هوشیاری و خواب آلودگی مشاهده شده است. در نتیجه از سیگنال EEG به عنوان یک روش استاندارد برای مشخص کردن سطح خستگی استفاده می‌شود.

با این حال، تفاوت‌های قابل توجهی در میان الگوریتم‌های فعلی تشخیص خستگی بر اساس EEG وجود دارد. مطالعات قبلی نشان داده است که ارتباط بین تغییرات EEG و میزان خستگی به نوع کار و حالت شخص بستگی دارد. این مطالعات هم در ماهیت الگوریتم برای تشخیص خستگی و  هم مکان و تعداد الکترود‌ها برای ثبت سیگنال متفاوت هستند [9]. علاوه بر این تمام این الگوریتم‌ها با محدودیت‌های متفاوتی رو به رو هستند. به طور مثال  بسیاری از این روش‌ها نیاز به روش‌های برای کاهش بعد فضای ویژگی‌های استخراج شده دارند تا دقت روش‌های خود را افزایش دهند. در نتیجه هدف از انجام این پایان نامه تشخیص میزان خستگی به کمک روشی است که نیاز به کاهش بعد داده‌ها نداشته و همچنین اثر خستگی را بر فعالیت‌های مغزی مشاهده کند. در نتیجه ما از روش‌های مکان یابی منابع برای رسیدن به این هدف استفاده کرده‌ایم.

در زمینه مکان یابی کانون‌ها در مغز روش‌های متفاوتی وجود دارد که درسال‌های اخیر این رویکردها سعی در بالا بردن صحت و افزایش نسبت سیگنال به نویز نتایج مکان یابی کرده‌اند. از جمله این روش‌ها می‌توان به پرتوسازی[5] اشاره کرد [10] که در آن با کمک فیلتر کردن داده‌های به دست آمده از الکترودهای مختلف، سعی در پیدا کردن جهت و مکان کانون‌های تولید کننده این سیگنال‌ها داریم.

در این پایان نامه برای مشخص کردن میزان خستگی ابتدا به مکان یابی کانون‌ها خواهیم پرداخت، سپس با استخراج ویژگی‌های مختلف سعی در مشخص کردن میزان خستگی خواهیم کرد. برای تست روش پیشنهادی هم از سیگنال‌های ثبت شده از افراد مختلف استفاده می‌کنیم و هم از سیگنال EEG که با توجه به خصوصیات موجود دیده شده در سیگنال‌های ثبت شده در حین خستگی تولید شده استفاده می‌کنیم. در نتیجه اهداف این پایان‌نامه را می‌توان در موارد زیر خلاصه کرد.

  • دست یابی به الگوریتمی که بتواند به صورت پیوسته میزان خستگی را مشخص کند.

  • افزایش صحت و سرعت تشخیص میزان خستگی

علاوه بر این با توجه به رابطه‌ای که خستگی و خواب با هم دارند در صورت مشخص شدن این رابطه شاید بتوان از آن در درمان بیماری‌هایی مانند اختلال خواب و بیماری‌های مشابه دیگر استفاده کرد.

  • نگاهی به فصول پایان نامه

مطالب عنوان شده در این پایان‌نامه در قالب پنج فصل آورده شده‌اند. ادامه مطالب ذکر شده را می‌توان در موارد زیر خلاصه نمود.

فصل دوم. پیشینه تحقیقات

در این فصل مهمترین کارهای پیشین که تاکنون، برای بررسی خستگی ذهنی انجام شده به همراه خصوصیات آنها مورد مطالعه و بررسی قرار گرفته است.

فصل سوم. روش تحقیق

در این فصل ابتدا روش حدف نویز از داده‌های ثبت شده توضیح داده می‌شود. سپس یکی از روش‌های مکان یابی و مشکلات آن توضیح داده می‌شود. پس از آن روشی برای بهبود مکان یابی منابع پیشنهاد می‌شود. در نهایت به بررسی روش تعیین خستگی ذهنی می‌پردازیم.

فصل چهارم. آزمایش‌ها و نتایج

در این فصل در ابتدا سیگنال‌های مورد بررسی توضیح داده می‌شود. سپس مراحل مختلف توضیح داده شده در فصل قبل و روش‌های تشخیص خستگی رایج بر روی این سیگنال‌ها اعمال می‌شود. همچنین نتایج حاصل از اعمال این روش‌ها توضیح داده می‌شود.

فصل پنجم. نتیجه‌گیری  و پیشنهادات

در فصل آخر مطالب عنوان شده در این پایان‌نامه جمع‌بندی شده و در مورد آن‌ها بحث می‌شود. سپس پیشنهادات و مسیرهایی برای ادامه و گسترش این تحقیق در پژوهش‌های آینده، ارائه می‌گردد.

[1] Grandjean

[2] Electroencephologram

[3] Caton

[4] Hans Berger

[5] Beamforming

 

ادامه مطلب...
دانلود پایان نامه روشی انتخابی برای راه رفتن از بغل در روبات انسان­ نما

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر

گرایش : هوش مصنوعی

عنوان : روشی انتخابی برای راه رفتن از بغل در روبات انسان­ نما

تعداد صفحه : 107

چکیده

امروزه راه رفتن روبات انسان نما یکی از حوزه­های جذاب تحقیق در زمینه روباتیک است. چالش­های موجود در کنترل روبات های انسان نما با درجات آزادی بالا، این مساله را در زمره مسائل دشوار در حوزه روباتیک قرار داده است به طوریکه راه رفتن روبات انسان نما را کماکان به عنوان مهمترین توانایی یک روبات طبقه­بندی می­کنند. در این پایان­نامه روشی جدید برای راه رفتن روبات انسان­نما از بغل مطرح شده است. در این روش بر روی هر یک از مفاصل موثر در راه رفتن روبات یک اتوماتای یادگیر متغیر سوار می­شود که طی فرآیند یادگیری بردارهای احتمال مربوط به اتوماتاها به روز می­شود و مقادیر مناسب مفاصل برای راه رفتن با توجه به این بردارها انتخاب می­شوند. در ادامه این روش یادگیری برای راه رفتن مستقیم و راه رفتن از بغل مورد استفاده قرار می­گیرد که نتایج حاصل از شبیه­سازی الگوریتم بر روی روبات انسان­نمای نائو در محیط شبیه­سازی فوتبال سه­بعدی نشان دهنده نتایج مناسب در راه رفتن مستقیم روبات در مقایسه با روش­های گذشته و همچنین مزایای فراوان بهبود توانایی راه رفتن از بغل در یک روبات انسان­نما می­باشد.

 

ادامه مطلب...
پایان نامه گسترش ابزارهای خودکار شناسایی الگوهای طراحی با عملیات پالایش و تصحیح برچسب

کامپیوتر

گرایش : نرم افزار

عنوان : گسترش ابزارهای خودکار شناسایی الگوهای طراحی با عملیات پالایش و تصحیح برچسب

تعداد صفحه : 78

 

چکیده

الگوهای طراحی، راه­حل­های اثبات شده و قابل اطمینانی هستند که، برای پاسخ به برخی از مسائل با رخداد مکرر در طراحی نرم افزار شی­گرا، ارائه شده­اند.‌ شناسایی آنها درکد، به منزله بازیابی طرح و هدف مخفی طراح و سهولت در امر نگهداشت­­پذیری است. از آنجاییکه سهولت در نگهداشت­­پذیری سیستم بسیار مهم و اجتناب ناپذیر است، لذا تولید ابزارهای خودکار برای شناسایی الگوها، مورد توجه قرار گرفت. اکثر ابزارهای شناسایی کنونی درصد بازیابی بالایی دارند. اما در شناسایی الگوها، به ویژه با ساختار و عملکرد مشابه، مثبت کاذب بالایی تولید می­کنند. از اینرو عملگر پالایش نیز پیشنهاد شد. پالایش، سعی بر شناسایی مثبت­­های کاذب، و حذف آنها  دارد. در این کار، یک عملگر جدید به نام “تصحیح برچسب” ارائه شده است. این عملگر ابتدا مثبت­های کاذب را شناسایی، سپس بجای اینکه آنها را از خروجی حذف کند، هویت صحیح  آنها را به کمک یک مجموعه معیارجدید معرفی شده در این کار، تشخیص و برچسب مثبت کاذب را تصحیح می­کند­­. خودکارسازی عملگر با داده­کاوی است. نتایج حاصل از روش ارائه شده، با دقت یادگیری 97.8%  در دسته­بندی “چندبرچسبه”، با متوسط 99.3% در دسته­بندی “یکی درمقابل همه”و متوسط 99.6% در دسته­بندی “دو به دو” خروجی ابزارها را تصحیح می­کند.

ادامه مطلب...
پایان نامه استفاده ازکاربرانی با دقت پیشگویی بالا در سیستم­های فیلترینگ اشتراکی

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر

گرایش : هوش مصنوعی

عنوان : استفاده ازکاربرانی با دقت پیشگویی بالا در سیستم­های فیلترینگ اشتراکی

تعداد صفحه : 95

چکیده

سیستم­های پیشنهادگر ابزارهای نرم افزاری و تکنیک­هایی هستند که اقلام را مطابق با نیاز کاربر به او معرفی می­کنند. روش­های محتوا محور و فیلترینگ اشتراکی از راهکارهای موفق در سیستم­های پیشنهادگر می­باشند. روش محتوا محور بر اساس ویژگی­های اقلام تعریف می­شود. این روش بررسی می­کند که اقلام مورد علاقه کاربر دارای چه ویژگی­هایی بوده­اند، سپس اقلام دارای ویژگی­های مشابه را به او پیشنهاد می­کند. روش فیلترینگ اشتراکی بر اساس تعیین اقلام مشابه یا کاربران مشابه کار می­کند که به ترتیب فیلترینگ اشتراکی مبتنی بر اقلام و مبتنی بر کاربران نامیده می­شود. در این پایان نامه یک روش تلفیقی از روش­های فیلترینگ اشتراکی و محتوا محور ارائه شده است. این روش می­تواند به عنوان روش فیلترینگ اشتراکی مبتنی بر کاربر در نظر گرفته شود. به این صورت که به منظور یافتن کاربرانی با سلیقه مشابه با کاربر فعال به عنوان کاربرانی با دقت پیشگویی بالا از ویژگی­های مربوط به محتوای اقلام برای افزایش تاثیر امتیاز­هایی که توسط کاربران به اقلام مشابه تخصیص داده شده است استفاده می­کند. به بیان دیگر دو کاربر مشابه هستند در صورتی که امتیاز­هایی که به اقلامی که از نظر محتوا مشابه هستند نسبت داده­اند، همسان باشند. برای این منظور در هنگام سنجیدن شباهت دو کاربر، به امتیاز نسبت داده شده به هر قلم، با توجه به میزان شباهت آن به قلم هدف، وزن تخصیص می­یابد.

 

ادامه مطلب...
دانلود پایان نامه بررسی الگوریتم های تخصیص مجدد در گریدهای محاسباتی و ارائه یک الگوریتم کارا

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر

گرایش : نرم‌افزار

عنوان : بررسی الگوریتم های تخصیص مجدد در گریدهای محاسباتی و ارائه یک الگوریتم کارا

تعداد صفحات : 78

چکیده

شبکه­ های تورین محاسباتی (گرید) زمینه‌ای را فراهم آورده است که بتوان از منابع ناهمگن در نقاط مختلف جغرافیایی برای حل مسائل پیچیده علمی، مهندسی و تجارت استفاده کرد. عملیات زمانبندی نقش کلیدی در عملکرد گرید ایفا می­کند. بدلیل پویایی منابع و تخمین نادقیق زمان اجرایی و … عملیات زمانبندی باید مکانیسم هایی را برای پشتیبانی از تحمل خطا، افزایش بهره وری از منابع و کاهش زمان اتمام کارها استفاده کند، که به آن زمانبندی مجدد گویند. در این پایان نامه دو الگوریتم زمانبندی کارهای مستقل و یک الگوریتم زمانبندی جریان کارها با در نظر گرفتن پویایی محیط ارائه شده که اهداف آنها کاهش زمان اجرا، افزایش بهره­وری از منابع، ایجاد توازن بار و پشتیبانی از تحمل خطا می باشد.

 

 

ادامه مطلب...
پایان نامه ارشد:ارائه یک الگوریتم زمانبندی کارا در شبکه محاسباتی گرید با هدف کاهش زمان اتمام کل و ت

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته کامپیوتر

گرایش : نرم افزار

عنوان : ارائه یک الگوریتم زمانبندی کارا در شبکه محاسباتی گرید با هدف کاهش زمان اتمام کل و توازن بار

تعداد صفحات : 77

 

1-1 مقدمه

کامپیوترهای امروزی مانند مغز انسان معمولا از بخش کوچکی از توانایی‌های خود استفاده می‌کنند و اغلب به‌ صورت غیرفعالند و منتظر اطلاعات ورودی می‌مانند. تصور کنید که اگر از منابع سخت‌افزاری این همه کامپیوتر غیرفعال استفاده شود و همه در یک کامپیوتر جمع شوند، چه دستگاه پرقدرتی خواهیم داشت. شبکه­ های محاسباتی (گرید) زمینه‌ای را فراهم آورده است که بتوان از منابع (کامپیوتری) سیستم‌های دیگر نیز استفاده نماییم. اغلب مسائل پیچیده علمی، مهندسی و تجارت احتیاج به میزان زیادی از منابع برای اجرا دارند، بهترین راه حل برای اینگونه مسائل استفاده از گرید می­باشد.

هدف شبکه­های محاسباتی (گرید) به اشتراک گذاشتن منابع کامپیوتری در نقاط مختلف جغرافیایی با مدیریت­های مختلف بین کاربران است. کاربران درخواست­های خود را پیوسته برای محیط گرید ارسال می­کنند و بخش مدیریت منابع این کارها را به گره های محاسباتی موجود در شبکه اختصاص می­دهد. به چگونگی تخصیص این درخواست­ها روی گره­های محاسباتی مختلف زمانبندی می­گویند.

اعمال سیاست­های مختلف برای عملیات زمانبندی نتایج متفاوتی را خواهد داشت که این سیاست با توجه به اهداف مشخص شده برای گرید اتخاذ می­شوند. عملیات زمانبندی در سیاست­های مختلف از فاکتورهای متفاوتی برای تخصیص کارها روی منابع مختلف استفاده می­کند. امکان دارد یک فاکتور نقش تعیین کننده­ای در یکی از سیاست­ها داشته باشد ولی در سیاست دیگر اصلا به آن توجه نشود، از اینرو هدف هر الگوریتم بهینه کردن سیاست مورد نظر خود است.

 

1-2 هدف از اجرای پایان نامه

با توجه به تاثیر بالای عملیات زمانبندی در عملکرد بهینه گرید و مزایایی که برای گرید در قسمت قبل ذکر شد، ارائه یک روش کارا در زمانبندی می تواند تاثیر زیادی در حل مسائل بزرگ در شاخه های مختلف داشته باشد.

در گریدهای محاسباتی هدف بالا بردن درصد استفاده از منابع در کنار کاهش زمان اتمام آخرین کار می­باشد. در این طرح تحقیق همین اهداف را دنبال می­کنیم و سعی داریم نگاشتی از کارها را ارائه دهیم که هم باعث بالا رفتن بهره­وری از منابع شود و هم کمترین زمان را برای اتمام آخرین کار داشته باشد.

 

1-3 مراحل انجام پایان نامه

برای انجام پایان­نامه ابتدا مفاهیم گرید و روش­های موجود مطالعه و بررسی شدند و بعد از مقایسه صورت گرفته روی روش­های مختلف، الگوریتم ژنتیک برای تولید نگاشت انتخاب شد. در کنار الگوریتم ژنتیک الگوریتمی را ارائه کردیم که به توازن بار روی منابع کمک می­کند و با استفاده از مزایای دو الگوریتم نام برده شده نگاشت بهینه­ای را برای کارها بدست آوردیم. برای پیاده­سازی الگوریتم­ها از زبان برنامه نویسی java شده است.

 

1-4 ساختار پایان نامه

در فصل دوم الگوریتم ژنتیک، پارامترهای موثر در این الگوریتم و مفاهیم اولیه­ی زمانبندی مورد بررسی قرار می­گیرد. در فصل سوم گذری بر تحقیقات پیشین خواهیم داشت. الگوریتم­های پیشنهادی در فصل چهارم ارائه شده است و در فصل پنجم نتایج حاصل از ارزیابی و مقایسه الگوریتم­های پیشنهادی آورده شده است.

ادامه مطلب...
پایان نامه بهبود مسیریابی داده های حساس به تاخیر در شبکه های حسگر بیسیم

پايان نامه بهبود مسيريابي داده هاي حساس به تاخير در شبکه هاي حسگر بيسيم یکی از پایان نامه و تحقیق های جامع و کامل و دارای منابع معتبر می باشد این پایان نامه دارای 107 صفحه به صورت فایل ورد و قابل ویرایش می باشد که جهت دریافت و دانلود متن کامل پايان نامه بهبود مسيريابي داده هاي حساس به تاخير در شبکه هاي حسگر بيسيم بر روی گزینه خرید انتهای ایمیل کلیک نمائید پس از وارد نمودن اطلاعات مربوطه و پرداخت قادر به دانلود متن کامل پایان نامه مربوطه می باشد همچنین لینک پایان نامه همان لحظه به ایمیل شما ارسال می گردد.

 

چکیده

یکی از چالش های مطرح در زمینه شبکه‌های حسگر ،نحوه مسیریابی و جمع‌آوری اطلاعات از گره‌های شبکه می‌باشد .از آنجا که این شبکه‌ها از لحاظ منابع انرژی و پردازشی محدودیت دارند،نیازمند روش‌های خاصی برای مسیریابی و انتقال اطلاعات می‌باشند که مصرف انرژی پایینی داشته باشند.

برای واضح تر شدن موضوع ،در شبکه های حسگر معمولی یک گره چاهک در وسط شبکه قرار دارد که اطلاعات حس شده توسط آن، به سوی چاهک هدایت می‌گردد اما طول عمر پایین شبکه به علت از بین رفتن گره‌های اطراف چاهک و تاخیر انتها به انتهای زیاد گره به علت انتقال اطلاعات از طریق تعداد نسبتا زیادی گره برای رسیدن به چاهک ، دو مشکل اساسی در ارسال اطلاعات در شبکه های حسگر بی‌سیم معمولی هستند. دو مشکل ذکر شده  ،امروزه به عنوان یکی از مباحث بسیار داغ علمی مطرح است و تاکنون کارهای زیادی در جهت بهبود و افزایش کارایی در زمینه جمع‌آوری اطلاعات در این حوزه ، صورت گرفته است. یکی از روش‌های مطرح در این زمینه، روش استفاده از چاهک متحرک است که در این روش با حرکت چاهک در کل شبکه اطلاعات از گره‌های حسگر جمع‌آوری می‌گردد. این روش، پایه بسیاری از روش‌های مطرح شده بعدی در جهت حل مشکلات مطرح شده در حوزه مسیریابی و جمع‌آوری اطلاعات در شبکه‌های حسگر را تشکیل می‌دهد که در این پایان‌نامه مورد بحث و بررسی قرار گرفته اند و در نهایت از لحاظ قابلیت و نقاط ضعف و قوت، با یکدیگر مورد مقایسه قرار گرفته اند.

در این پایان‌نامه قصد داریم تا با ارایه روشی جامع، ساده و کارا دو مشکل مطرح در این گونه شبکه‌ها که باعث کارایی پایین این شبکه‌ها گردیده را بهینه تر نماییم. روش ارایه شده مبنی بر حرکت چاهک متحرک در طول شبکه است که در آن شبکه به صورت خوشه‌بندی شده می باشد و با در نظر گرفتن اولویت بسته‌ها در ارسال اطلاعات به چاهک می‌باشد .نتایج به دست آمده بهبود دو پارامتر ذکر شده را  نشان می‌دهد .


ادامه مطلب...
پایان نامه ارائه یک چارچوب مدل‌سازی برای ارزیابی شیوه آموزشی یادگیرندگان در محیط‌های یادگیری تحت

دانشکده فنی و مهندسی

پایان‌نامه برای دریافت درجه کارشناسی ارشد

ارائه یک چارچوب مدل‌سازی برای ارزیابی  شیوه آموزشی یادگیرندگان در محیط‌های یادگیری تحت وب

تعداد صفحات : 104

چکیده:

در سال‌های اخیر استفاده از فناوری‌های برخط در آموزش فرصت‌هایی را برای استفاده از شیوه‌های جدید یادگیری و روش‌های مفید آموزش فراهم آورده است. یکی از شیوه‌های جدید که امروزه برای آموزش به کار می‌رود آموزش الکترونیکی است. در این شیوه افراد از طریق اینترنت و در محیطی کاملاً الکترونیکی و مجازی آموزش‌های لازم را می‌بینند. بنابراین در یک تعریف کلی آموزش الکترونیکی استفاده از فناوری شبکه (برای مثال اینترنت) به‌منظور طراحی، ارائه درس و اجرای محیط آموزشی به‌منظور تحقیق و استمرار یادگیری است. از سوی دیگر با توجه به انعطاف‌پذیری به وجود آمده، هم برای یاد دهنده و هم برای یادگیرنده بسیاری از دانشگاه‌ها و سازمان‌های آموزشی به‌سرعت درحال‌توسعه این شیوه آموزشی هستند.

بسیاری از دستگاه‌های توصیه گر به اولویت‌های یادگیرنده، علایق، رفتارهای آموزشی و درعین‌حال تحلیل رفتار وی برای ارائه خدمات آموزشی خاص، توجه دارند و به همین دلیل یکی از ملزومات سیستم‌های آموزشی وجود مکانیزمی شخصی شده برای کمک به یادگیری مؤثر یادگیرنده است. شخصی‌سازی برنامه آموزشی در آموزش مبتنی بر وب به دو دلیل اهمیت دارد: نخست اینکه اکثر برنامه‌های کاربردی مبتنی بر وب برای عموم کاربران طراحی می‌شوند، درصورتی‌که در نظام آموزشی الکترونیکی توجه به دانش پیش‌زمینه، تجربیات، انگیزه، توانایی‌های رفتاری و سطح مختلفی از کاربرد را می‌طلبد. دیگر اینکه در بسیاری از اوقات یادگیرنده به‌تنهایی با سیستم آموزش الکترونیکی کار می‌کند و مانند این است که معلم محتوای آموزشی مشخصی را به یک یادگیرنده در کلاس خصوصی تدریس می‌کند، همین امر سبب شده است تا خدمات شخصی شده در سیستم‌های کاربردی مبتنی بر وب بسیار موردتوجه قرار گیرد.

یکی از اهداف این پژوهش ایجاد یک مدل پویا برای  یادگیرندگان است که رفتار و عملکرد یادگیرندگان را زیر نظر گرفته و بر اساس رفتار یادگیرنده شیوه ی آموزشی مناسب را برای یادگیرنده تشخیص داده  و بر اساس این تشخیص مناسب­ترین فرایند آموزشی برای یادگیرنده به کار می رود. همچنین رویکردهای متفاوت برای بهبود فرایند تشخیص سبک یادگیری یادگیرنده مورد بررسی قرار می‌گیرند و به‌منظور بهبود فرایند خودکار تشخیص سبک یادگیرنده  یک رویکرد خودکار تشخیص سبک که بر کاملاً بر اساس رفتار یادگیرنده در سیستم‌های مدیریت یادگیری هست معرفی‌شده است. نتایج به دست آمده  در این پژوهش نشان می دهد  رویکرد خودکار تشخیص سبک مبتنی بر رفتار یادگیرنده در مقایسه با سایر روش های موجود نتایج دقیق تری را منجر می شود.

 

کلیات تحقیق

 

 

 

1-1 مقدمه

در سیستم‌های مدیریت یادگیری، یکی از مهم‌ترین مشکلات عدم شناخت و عدم توجه به رفتار فردی هر یادگیرنده نسبت به آموزش چهره به چهره است. یادگیرندگان در محیطی که با اولویت‌های یادگیری آنان تطابقی نداشته باشد، به‌رغم توانمندی بالا با مشکلات متعددی مواجه می‌شوند که این مشکلات هم از بعد یادگیرنده است و هم بر تلاش یاد دهنده (معلم) اثر می‌گذارد. زیرا یاد دهنده نیز به‌رغم تلاش و پیگیری فراوان، رضایتی از یادگیرنده نخواهد یافت و احساس می‌کند یادگیرنده بدون میل و رغبت به دوره ادامه می‌دهد. این ناهماهنگی در محیط آموزش الکترونیکی به دلیل نبود آموزشگر انسانی نمود بیشتری پیدا می‌کند. [1] ناتوانی معلمان به شناخت (فهمیدن) سبک‌های یادگیری دانش‌آموزان و افزایش آگاهی دانش‌آموزان از سبک‌های یادگیری و درک دانش‌آموزان در فرایند یادگیری به معلمان اجازه می‌دهد تا پشتیبانی بهتر برای خود دانش‌آموزان و درنتیجه پتانسیل بالا به‌منظور ارتقا دانش‌آموزان و یادگیری ارائه دهند. به همین دلیل توجه به نظریات یادگیری، بسیار منطقی جلوه می‌کند. به‌طورکلی روش معمول فرد در حل مسئله، تفکر، ادراک، شیوه پردازش اطلاعات و یادآوری که ریشه در ویژگی‌های شناختی، عاطفی، فیزیولوژیکی و عوامل شخصیتی دارد، سبک‌شناختی نامیده می­شود. در مقابل به باورها، اولویت‌ها، رفتارهای ترجیحی در شیوه تعامل با یاد دهنده، سایر یادگیرندگان، محتوای درس و همچنین نحوه پردازش اطلاعات، پاسخ‌دهی و استفاده از محرک‌های موجود درزمینه‌ی یادگیری و نیز تمایل فرد به یادگیری و انطباق او با محیط سبک یادگیری گوید.[2]

این پژوهش پردازش خودکار برای معرفی سبک‌های یادگیری دانش‌آموزان در سیستم‌های مدیریت یادگیری  می‌پردازد و همچنین ابزاری است که معلمان را در استفاده از این رویکرد پشتیبانی می‌کند. علاوه بر این، بسیاری از نظریه‌پردازان آموزشی و محققان معتقدند که سبک‌های یادگیری به‌عنوان یک عامل مهم در فرایند یادگیری است.

1-2 بیان مسئله

یکی از مسائل مهم در نظام‌های آموزشی به‌ویژه نظام‌های یادگیری الکترونیکی، شناسایی نیاز یادگیرنده و طراحی برنامه درسی متناسب با توانایی‌های کاربر و ارائه توصیه‌های مناسب به اوست. پایش مستمر و توجه به بازخوردهای یادگیرنده در فرایند یادگیری در این مسیر راهگشاست. شخصی‌سازی برنامه آموزشی در این نظام، بنا به دلایلی همچون دانش پیش‌زمینه، تجربیات، انگیزه و توانایی‌های رفتاری متفاوت یادگیرندگان، سطوح مختلفی از کاربرد را می‌طلبد.

داشتن سبک‌های یادگیری دانش‌آموزان می‌تواند در بسیاری از زمینه‌ها به‌منظور افزایش یادگیری و تدریس کمک کند، در ابتدا معلمان می‌توانند از مزایای گرفتن اطلاعات در مورد چگونگی یادگیری دانش‌آموزانشان استفاده کنند، تا برای آن‌ها زمینه‌ای را فراهم کند که با درک عمیق‌تر یاد بگیرند. و ممکن است هنگام توضیح و یا آماده‌سازی مواد یادگیری کمک کند، علاوه بر این آگاه کردن دانش‌آموزان از سبک‌های یادگیری و نشان دادن نقاط قوت و ضعف فردی، خود آن‌ها می‌تواند به دانش‌آموزان کمک کند. علاوه بر این دانش‌آموزان می‌توانند با تطبیق سبک آموزشی با سبک یادگیری خودشان پشتیبانی شوند که به پیشرفت دانش‌آموزان با مواد یادگیری و فعالیت‌های موردنظر دانش‌آموزان از آموزش مناسب، باعث می‌شود که یادگیری برای آن‌ها آسان‌تر شود. با توجه به موارد گفته‌شده در بالا و ماهیت سیستم‌های مدیریت یادگیری نیاز به یک رویکرد خودکار است که بتواند با کمترین خطا سبک یادگیری یادگیرنده را شناسایی کند تا بتوان بر اساس سبک یادگیری شناخته‌شده توصیه‌ها و محتوای آموزشی مناسب را به یادگیرنده داد.

 

1-3  اهداف مسئله

  با توجه به اهمیت سیستم‌های آموزشی به‌خصوص سیستم‌های آموزش از راه دور که یادگیرندگان با نیازهای آموزشی متفاوت محتوای آموزشی متفاوت را فرامی‌گیرند این مسئله مورد تأکید می‌باشد که با توجه به نیاز آموزشی یادگیرنده بهترین فرایند آموزشی برای یادگیرنده اعمال شود. درحالی‌که مدل‌سازی مشترک دانش‌آموزان به فراهم کردن اطلاعات واضح درباره اولویت‌ها و رفتارهای آن‌ها نیاز دارد، یک رویکرد خودکار مدل‌سازی دانش‌آموزان بر مبنای این مفهوم است که بر مبنای فعالیتی که دانش‌آموزان واقعاً در یک‌رشته انجام می‌دهند و از رفتار و اعمال آن‌ها در رشته به اولویت‌ها و نیازهای آن‌ها پی ببرد. این رویکرد می‌تواند بر بعضی از مشکلات کشف روش یادگیری با استفاده از پرسش‌نامه‌ها غلبه کند.

در یک رویکرد خودکار مدل‌سازی دانش‌آموزان، هیچ تلاش اضافه‌ای از طرف دانش‌آموزان موردنیاز نیست تا سیستم بتواند اطلاعاتی درباره روش‌های یادگیری‌شان جمع‌آوری کند. آن‌ها فقط باید از سیستم برای یادگیری استفاده کنند تا اطلاعات مربوطه درباره رفتارشان فراهم شود. بنابراین، می‌تواند بر چندین مشکل به سبب پرسشنامه‌های روش یادگیری غلبه کرد. با توجه به اینکه اطلاعات به دست آمده از رفتار یادگیرندگان بدون ابهاماتی است که هنگام پر کردن پرسشنامه بوجود می­آید. ابهاماتی که می‌تواند از فقدان انگیزش برای درست پر کردن پرسش‌نامه، تأثیر انتظارات از دیگران، و فقدان آگاهی از خود درباره اولویت‌های یادگیری شخص بیاید. به‌علاوه پرسش‌نامه‌ها ساکن هستند و روش یادگیری یک دانش‌آموز را در یک نقطه زمانی خاص توصیف می‌کنند. این موضوع رویکرد ما را مستعد خطا می‌کند. مثلاً اگر یک دانش‌آموز با گروه یادگیری خودش مخالفت کرده باشد، ممکن است همه سؤالات درباره یادگیری مشترک را با اولویت منفی جواب دهد. هرچند اگر مشکلات در روز بعد رفع شوند یا اگر دانش‌آموز بخواهد سؤالات را یک روز بعد پاسخ دهد، ممکن است سؤالات را کاملاً متفاوت پاسخ دهد. به‌عنوان نتیجه ممکن است به خاطر اهمیت زمان دقیق و بنابراین حالت دانش‌آموزان در زمان پر کردن پرسشنامه روش یادگیری، از پرسشنامه فرضیه، اشتباهی نتیجه‌گیری شود.

در موقعیتی که در بالا بحث شد، دانش‌آموز یک روش یادگیری متفاوت را برای کوتاه‌مدت ترجیح می‌دهد، اما به این معنا نیست که گرایش کلی او برای روش یادگیری تغییر کرده است. هرچند اگر مثلاً دانش‌آموزان اولویت‌های ضعیف روش یادگیری‌شان را آموزش ببینند، روش‌های یادگیری‌شان هم می‌تواند تغییر کند. اگرچه به خاطر احتمال جمع‌آوری و تحلیل مکرر رفتار و اقدامات دانش‌آموزان، رویکرد خودکار مدل‌سازی دانش‌آموزان می‌تواند این تغییر را کشف کند و اطلاعات در مدل دانش‌آموز را بر طبق آن به‌روزرسانی کند.

 

با توجه به مطالب گفته‌شده هدف این پژوهش ایجاد یک رویکرد خودکار مدل‌سازی برای تشخیص و به‌روزرسانی سبک یادگیری یادگیرنده در محیط‌های یادگیری تحت وب است.  که شامل مراحل زیر است:

  • در مرحله­ی نخست رفتار موردنیاز دانش‌آموزانی که مرتبط با فرایند شناسایی می‌باشند را باید تعیین نمود. این کار معمولاً بر اساس مستنداتی که در مورد مدل سبک خاص یادگیری است، انجام می‌گیرد و شامل بررسی‌هایی در مورد ویژگی‌ها و الگوهای افزوده‌شده یا الحاقی، آستانه‌هایی برای طبقه‌بندی داده‌ها و همچنین الگوهای مرتبط با هر بعد از سبک یادگیری می‌شود.
  • مرحله­ی بعدی به موضوعات مربوط به نحوه­ی آماده‌سازی و استفاده از داده‌های گردآوری‌شده در مورد رفتار دانش‌آموزان می‌پردازد تا اینکه از طریق این داده‌ها، سبک‌های یادگیری را به دست آورد.
  • گام نهایی عبارت است از استفاده از داده‌های گرداوری شده برای توسعه­ی مدل و اجرای مدل و ارزیابی خروجی‌های به‌دست‌آمده از مدل.

1-3-1 هدف اصلی

به منظور بهبود فرایند تشخیص دقیق سبک یادگیری در سیستم‌ها مدیریت  آموزش به ایجاد و توسعهٔ یک مدل می‌پردازیم. این مدل به توسعه‌دهندگان سیستم‌های آموزشی این امکان را می‌دهند که برای مکان‌هایی که به محیط آموزشی سنتی مناسب دسترسی ندارند،  سیستم‌های آموزشی تحت وب را به‌صورت مناسب و انعطاف‌پذیر و متناسب با نیازهای آموزشی یادگیرندگان ایجاد و توسعه دهند.

در این مدل یادگیرندگان  در گروه‌های مناسب قرار می‌گیرند و فرایند شخصی‌سازی آموزش به گروه‌ها برای همکاری و یادگیری بیشتر مورد بررسی قرار می‌گیرد و با تحلیل داده‌ها و رفتار قبلی کاربران، محتوای آموزشی مناسب به آن‌ها ارائه می‌شود.

 

1-4 روش تحقیق

این تحقیق از روش تحقیق توصیفی تحلیلی، از شاخه پیمایشی و ازلحاظ ماهیت کاربردی و ازلحاظ زمانی مقطعی است. درروش تحقیق توصیفی هدف توصیف کردن شرایط یا پدیده‌های موردبررسی است و روش زمینه‌یابی به‌عنوان یکی از زیر بخش‌های روش تحقیق توصیفی به چگونگی پراکندگی متغیرهای موردبررسی می‌پردازد. در این پژوهش به دنبال بررسی و تعیین روشی خودکار برای ارزیابی سبک آموزشی یادگیرندگان  بر اساس اطلاعات و داده‌های موجود به کمک استفاده از روش‌های داده محور و رفتار محور است. لذا تحقیق از نوع توصیفی و از شاخه پیمایشی است.

برای جمع‌آوری اطلاعات مربوط به ادبیات موضوع و پیشینه تحقیق از کتب، پایان‌نامه‌ها، مقالات، شبکه جهانی اینترنت  استفاده‌شده است و برای جمع‌آوری اطلاعات موردنیاز مربوط به فصل سه و چهار، با مراجعه به دانشگاه تربیت مدرس، اطلاعات لازم در مورد متغیرهای مورد نظرجمع‌آوری شده است. جامعه آماری تحقیق شامل 45 دانشجوی دانشگاه تربیت مدرس می‌باشد.

 

در فصل دوم به با تعاریف و معانی سبک یادگیری اشنا میشویم و بر اساس نظریه های معتبر آموزشی انواع سبک های یادگیری را تعریف و با یکدیگر مقایسه می کنیم و همچنین انواع سیستم های مدیریت یادگیری که بر پایهٔ تخصیص سبک یادگیرنده است را بررسی می‌کنیم در فصل سوم به توسعه و ایجاد یک مدل برای رویکرد خودکار مدل‌سازی تشخیص سبک یادگیری یادگیرنده می‌پردازیم و در فصل چهارم به بررسی و ارزیابی نتایج می‌پردازیم.


 

ادامه مطلب...
پایان نامه ارائه یک مدل جدید یادگیری به منظور آموزش طبقه‌بندی‌کننده‌های سریال

پايان نامه ارائه يک مدل جديد يادگيري به منظور آموزش طبقه‌بندي‌کننده‌هاي سريال یکی از پایان نامه و تحقیق های جامع و کامل و دارای منابع معتبر می باشد این پایان نامه دارای 96 صفحه به صورت فایل ورد و قابل ویرایش می باشد که جهت دریافت و دانلود متن کامل پايان نامه ارائه يک مدل جديد يادگيري به منظور آموزش طبقه‌بندي‌کننده‌هاي سريال بر روی گزینه خرید انتهای ایمیل کلیک نمائید پس از وارد نمودن اطلاعات مربوطه و پرداخت قادر به دانلود متن کامل پایان نامه مربوطه می باشد همچنین لینک پایان نامه همان لحظه به ایمیل شما ارسال می گردد.

 

چکیده

 

امروزه ایجاد و آموزش بهینه دسته‌بندی‌کننده های مستحکم و سریع به یکی از مهمترین دغدغه‌های علم هوش مصنوعی و به ویژه حوزه یادگیری ماشین بدل شده است. با رشد روز افزون در حجم و سرعت تولید داده، نیاز به تولید دسته‌بندی‌کننده‌های دقیق و سریع بیش از پیش حس می شود و در واقع یک چالش محسوب می شود. روش‌های یادگیری جمعی طی سالیان اخیر اثبات کرده‌اند که برای رفع مشکلات یاد شده گزینه‌های مناسبی هستند.

روش‌های یادگیری جمعی، گروهی از مدل های ضعیف را تولید می‌کنند که با تلفیق مناسب و هوشمندانه خروجی آنها می توان به یک دسته‌بندی‌کننده قوی دست یافت. این روش‌ها زمانی که از الگوریتم‌های تقویتی در ساختار سریال بهره می‌برند، کارایی به مراتب بالاتری از خود نشان می‌دهند.

استفاده از شیوه تقسیم-و-تسخیر یا همان separate-and-conquer در زمان آموزش هر لایه از ساختار سریال، دلیل قدرت یادگیر‌های جمعی سریال می‌باشد؛ علاوه بر آن، تعیین مرزهای تصمیم موارد جزیی در دور‌های نخست ساختار سریال انجام می‌شود و در دور‌های آتی این مرز پالایش شده و موارد سخت‌تر را در بر خواهد گرفت. عملکرد مدل کلاسیک ساختار سریال، در مواجهه با مسائل دوکلاسه، به این صورت است که نمونه‌های غیر هدف که در لایه‌های اولیه یاد گرفته می‌شوند از سیستم حذف شده و با نمونه‌های سخت‌تر جایگزین می‌شوند؛ که می‌توان از این استراتژی با نام bootstrapping یاد کرد. با این روند، یادگیری بهینه کلان-به-جزیی یا همان learning coarse-to-fine حاصل می‌شود.

در این مطالعه، یک مدل نوین برای آموزش طبقه‌بندی‌کننده‌های سریال ارایه شده است که از روش وارسی اعتبار در ساختار آن استفاده شده است. در روش پیشنهادی، درصدی از داده‌های درست دسته‌بندی‌شده در لایه‌ نخست ساختار به منظور حفظ عمومیت سیستم، برای آموزش به لایه بعدی فرستاده می‌شود و این روند برای لایه‌های بعدی ادامه خواهد یافت. بدین ترتیب، مدل ارائه شده در مقابل داده‌های نویزی بسیار مقاوم بوده و انحراف معیار نرخ خطای آزمایش آن، از روش‌های رقیب کمتر می‌شود.

ادامه مطلب...
طراحی و پیاده سازی نوعی پنل لمسی مادون قرمز مبتنی بر بازشناسی الگو

متن کامل پایان نامه مقطع کارشناسی ارشد رشته : مهندسی کامپیوتر

گرایش : هوش مصنوعی 

عنوان :  طراحی و پیاده سازی نوعی پنل لمسی مادون قرمز مبتنی بر بازشناسی الگو

تعداد صفحات : 93

چکیده

مسئله موقعیت یابی همواره به عنوان پایه و اساس مسائل مطرح در تمامی انواع صفحات لمسی بحث برانگیز بوده است، منظور از موقعیت یابی، تشخیص مکان انگشت یا انگشتان قرار داده شده بر سطح صفحه لمسی می باشد.از طرفی وابستگی شدید صفحات لمسی به جنس مواد بکار رفته در ساخت آنها موجب بروز چالشی عظیم در نحوه ساخت صفحات لمسی جهت افزایش دقت موقعیت یابی شده است، در این پایان نامه ابتدا با بررسی صفحات لمسی رایج، روشی جدید جهت موقعیت یابی فارغ از جنس مواد بکار رفته در ساخت صفحه لمسی ارائه شده است. این روش تلفیقی از روش تحلیل سیگنال Liu  در صفحات لمسی آکاستیکی و صفحات لمسی ساخته شده از سنسور های مادون قرمز ارائه شده توسط Moeller می باشد. مهمترین تفاوت  روش ارائه شده با روش های قبلی، علاوه بر سخت افزار ارائه شده، نحوه تحلیل داده ها و تغییر در مدل سازی داده های بکار رفته با استفاده از روش نزدیکترین همسایه  می باشد. نتایج نشان دهنده بهبود عملکرد این روش نسبت به روش Liu در بستر جدید ارائه شده می باشد.

 

ادامه مطلب...
پایان نامه استخراج ویژگی مناسب برای تشخیص سیگنال های حرکات ارادی EEG

دانشکده مهندسی کامپیوتر و فناوری اطلاعات

گروه هوش مصنوعی

 استخراج ویژگی مناسب برای تشخیص سیگنال­های حرکات ارادی EEG

تعداد صفحات : 106

چکيده

در این پایان نامه قصد داریم با ارائه یک ویژگی مناسب عمل دسته بندی را بر روی سیگنال های مغزی انجام دهیم. برای این منظور ابتدا از سیگنالهای مغزی نویز دستگاه ثبت حذف می شود سپس از این سیگنال ها با استفاده از تبدیل والش و آنتروپی ویژگی استخراج می شود. بعد از استخراج ویژگی ، بر اساس این ویژگی ها عمل دسته بندی انجام می شود.
اولین پیش پردازش برای دسته بندی سیگنال های مغزی حذف نویز از این سیگنال ها می باشد. در این پایان نامه دو روش کلاسیک حذف نویز و دو روش پیشنهادی حذف نویز بررسی می شود. ابتدا با استفاده از روش کلاسیک ICA ، تبدیل موجک و دو روش پیشنهادی تبدیل والش و روش ترکیبی والش و ICA از سیگنال حذف نویز می شود. برای داشتن یک ارزیابی از این چند روش، نتایج حاصل از این چهار روش با استفاده از سه معیار، نسبت سیگنال به نویز(SNR)، میانگین مربع خطا(MSE) و جذر میانگین تفاضل مربعات(درصد) (PRD) ارزیابی می¬شود. نتایج ارزیابی با استفاده از این معیارها نشان داد که روش ترکیبی والش و ICA و تبدیل والش دارای کمترین مقدار میانگین مربع خطا می باشد. همچنین این دو روش دارای بیشترین مقدار نسبت سیگنال به نویز و جذر میانگین تفاضل مربعات(درصد) است.
بعد از حذف نویز از سیگنال، به بحث استخراج ویژگی از سیگنال¬ها و دسته بندی آنهاپرداخته می شود. ویژگی¬های استخراج شده تعداد ویژگی کمی می باشد و یک بردار ویژگی 22 مولفه ای است. این ویژگی ها مربوط به آنتروپی تبدیل والش کانال های سیگنال، آنتروپی تبدیل والش کل سیگنال، توان تبدیل والش کانال های سیگنال و توان تبدیل والش کل سیگنال می باشد. برای ارزیابی کارایی این ویژگی ها همین ویژگی¬ها، نیز با استفاده از تبدیل موجک و فوریه استخراج می شوند و عمل دسته بندی بر اساس ویژگی های استخراجی این سه روش به طور جداگانه انجام می شود. بعد از استخراج ویژگی، بر اساس ویژگی های استخراجی، به دسته بندی سیگنال ها با استفاده از طبقه بندی کننده SVM و نزدیکترین همسایه پرداخته می شود. نتایج حاصل نشان می دهد که دسته بندی با استفاده از ویژگی های استخراجی تبدیل والش به مراتب بهتر از دسته بندی بر اساس ویژگی های دو تبدیل دیگر است. نرخ تشخیص با استفاده از روش پیشنهادی و svm، 42.5 درصد و با روش نزدیکترین همسایه 39.0 درصد است.
در مقایسه ای دیگر، نتایج حاصل با نتایج پیاده سازی شده بر روی این مجموعه داده، در چهارمین دوره مسابقات BCI مقایسه شده است. نتایج نشان داد که روش دسته بندی با استفاده از تبدیل والش از همه¬ی روشها به جز نفر اول بهتر است.. ولی مزیتی که روش پیشنهادی نسبت به همه روشها دارد این است که در بحث زمانی این روش دارای مجموع زمان تست و آموزش کمی است. این زمان 52 ثانیه می باشد که نسبت به روش اول که 403 و 640 ثانیه است به مراتب بهتر است.

ادامه مطلب...
 دانلود متن کامل پایان نامه بررسی تطبیقی متدولوژی های مبتنی بر عامل

سمینار کارشناسی ارشد

مهندسی نرم­ افزار

بررسی تطبیقی متدولوژی­های مبتنی بر عامل

تعداد صفحات : 73 صفحه

مقدمه

 

با گسترش تکنولوژی اطلاعات و  تغییر سریع سیستم­های اطلاعاتی و همچنین افزایش استفاده از سیستم­های غیر متمرکز همانند تلفن­های همراه و سیستم­های بر پایه وب ، استفاده از روشی موثر برای توسعه این سیستم­ها لازم به نظر می­رسد. دلایل زیادی برای علاقه به عاملها وجود دارد که مهمترینشان این مفهوم است که انها میتوانند با یکدیگر برای براورده نمودن اهدافشان همکاری نمایند و راه معمولی انتقال سیستمهای قدیمی به سیستمهای توزیعی امروزی مجهز کردن انها به عاملهاست، یعنی اینکه در طرف هرکدام عاملهایی گذاشته شود که توانایی ارتباط با یکدیگر را داشته باشند. به دلیل خصوصیات عامل­ها و تفاوت­های آنها با اشیاء ، روش­های شیءگرایی مورد استفاده جوابگو نیستند. به همین جهت استفاده از روش­های مهندسی مبتنی بر عامل ضروری به نظر می­رسد. برای استفاده از مهندسی نرم­افزار مبتنی برعامل بایستی متدولوژی را که بیانگر راهنمایی­هایی در این راستا باشد معرفی نمود.

در این سمینار هدف بررسی روش­های توسعه موثر مبتنی برعامل است، تا در نهایت بتوان متدولوژی مناسب برای حوزه کاربردی مد نظر انتخاب نمود. بر همین اساس چهارچوب سمینار در سه فصل ارایه می­گردد. در فصل اول به بررسی مفاهیم برنامه­نویسی شی­ءگرا و عامل می­پردازیم. سپس عامل­ها به طور کامل تشریح می­گردند. در فصل دوم مهندسی نرم­افزار مبتنی بر عامل  و متدولوژی­های موجود معرفی می­گردند. در فصل آخر متدولوژی­ها در یک چهارچوب خاص ارزیابی می­گردند.

ادامه مطلب...
دانلود پایان نامه ارشد : دفاع در برابر حملات سیاه چاله در شبکه های موردی سیار با استفاده از سیستم ای

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر

گرایش : نرم افزار

عنوان : دفاع در برابر حملات سیاه چاله در شبکه های موردی سیار با استفاده از سیستم ایمنی مصنوعی

تعداد صفحات 87

چکیده

شبکه‌های موردی سیار، شبکه‌هایی متشکل از دستگاه­های بی‌سیمی هستند که در کنار هم یک شبکه با قابلیت خودسازماندهی را به وجود می‌آورند. این شبکه‌ها دارای هیچ زیرساختار ارتباطی ثابتی نبوده و برای ارتباطات با سایر گره­ها از گره‌های میانی استفاده می­شود. این شبکه ها علیرغم داشتن مزایای زیاد بدلیل بی­سیم بودن کانال و وابستگی هر گره به گره های میانی با نگرانی امنیتی زیادی مواجه است. یکی از این نگرانی های احتمالی وقوع حملات سیاه­چاله می­باشد. در این حمله که بر روی پروتکل های مسیر­یابی شبکه­های موردی سیار اعمال می­شود، گره مهاجم خود را بعنوان نزدیکترین گره به گره مقصد اعلام می­کند ولذا گره­های شبکه در ارسال بسته­های خود به مقاصد مختلف، این گره را بعنوان گره میانی خود انتخاب می­کند. نتیجه این است که این گره می­تواند بسته های دریافتی را به جای ارسال به مقصد، حذف نماید. در این پایان‌نامه، جهت دفاع در برابر حملات سیاه‌چاله در شبکه‌های موردی سیار از الگوریتم سیستم ایمنی مصنوعی استفاده می‌کنیم. نتایج حاصل از شبیه سازی نشان می­دهد، روش پیشنهادی که AIS-DSR نامیده می­شود، در مقایسه با پروتکل DSR  از نظر نرخ تحویل بسته، توان عملیاتی، تعداد بسته های حذف شده و تاخیر انتها به انتها کارایی بالاتری دارد.

ادامه مطلب...