۱.
فناوری اطلاعات به سبب درهم تنیدگی روزافزون آن با زندگی اجتماعی اهمتی اخلاقی فزاینده ای بافته است. ازاین رو شرکت های مربوطه ای چون ای سی ام و آی تریپل ئی مجموعه اصول و کدهای اخلاقی ای برای حرفه فناوری اطلاعات تدوین و هرازگاهی آن را به روز کنند. این اصول و کدها گرچه به عنوان مجموعه توصیه هایی برای راهنمایی اخلاقی مفیدند، در برخی از موقعیت های پیچیده، کارایی شان را برای حرفه مندان این حرفه از دست می دهند. چراکه اصول و کدها ممکن است در موقعیت هایی باهم در تعارض بیفتند. در این مقاله تلاش خواهیم کرد الگویی هنجاری برای کمک به تصمیم گیری در چنین موقعیت هایی ارائه کنیم. برای رسیدن به این الگو از آموزه ها و رویکردهای متعددی چون دیدگاه دیوید راس، آموزه اثر دوگانه، و نیز رویکرد جودیث تامسون در اخلاق هنجاری و کاربردی کمک خواهیم گرفت. این الگو دارای سه شرط عمومی و یک شرط اختصاصی خواهد بود که برای پاسخ به دوراهی هایی با مضمون رواداشتن شر و توسل به شر در حرفه فناوری اطلاعات می توانند یاری گر عامل اخلاقی باشند. ما بر اساس این الگو علاوه بر اینکه برخی دوراهی های مهم حوزه اخلاقاً کاربردی را تبیین خواهیم کرد و به آن ها پاسخ خواهیم داد، آن را در دست کم شش موقعیت اخلاقاً مهم در حوزه فناوری اطلاعات، ازجمله در حوزه های خودروهای خودران، حریم خصوصی و امنیت، جنگ های سایبری، باج افزارها، و اینترنت اشیا، به کار خواهیم بست. در هر کدام نشان خواهیم داد که شرایط چهارگانه چگونه می توانند به عامل اخلاق در تصمیم گیری های اخلاقی کمک کنند. بااین حال ادعا نخواهیم کرد که این الگو همچون یک منطق تصمیم پذیر عمل می کند چراکه فرایند رسیدن به تصمیم اخلاقی الگوریتم وار نیست و عوامل شناختی و غیرشناختی زیادی در این میان نقش بازی می کنند.
۲.
شناسایی موضوعات داغ در حوزه های پژوهشی همواره موردتوجه بوده است؛ تصمیم گیری هوشمندانه در مورد آنچه باید مورد مطالعه و قرار بگیرد، همواره عاملی اساسی برای محققان بوده و می تواند برای پژوهشگران موضوعی چالش برانگیز باشد. هدف پژوهش حاضر، شناسایی موضوعات داغ در مقالات نمایه شده در پایگاه اسکوپوس در حوزه علم اطلاعات و دانش شناسی در سال های 2010 تا 2019 با استفاده از تکنیک های متن کاوی است. جامعه آماری، شامل 50995 مقاله منتشرشده در 249 عنوان مجله نمایه شده در پایگاه اسکوپوس در این حوزه در بازه زمانی 2010 تا 2019 است. برای شناسایی خوشه های موضوعی این حوزه، از الگوریتم های تکنیک تخصیص دیریکلت پنهان (LDA) استفاده شد و داده ها با استفاده از کتابخانه های متن کاوی در نرم افزار پایتون مورد تحلیل قرار گرفت. برای این کار، با اجرای الگوریتم وزن دهی لغات به روش TF-IDF و تشکیل ماتریس متنی، موضوعات در پیکره اسناد تعیین و ضرایب اختصاص هر سند به هر موضوع (تتا) مشخص شد. خروجی اجرای الگوریتم LDA، منجر به شناسایی تعداد 260 موضوع شد. تخصیص برچسب به هریک از خوشه های موضوعی، بر اساس کلمات با بالاترین وزن اختصاص یافته به هر موضوع و با نظر کارشناسان حوزه موضوعی، انجام گرفت. با انجام محاسبات با ضریب اطمینان 95%، تعداد 63 موضوع از بین 260 موضوع اصلی انتخاب شد. با محاسبه میانگین تتا برحسب سال، تعداد 24 موضوع دارای روند مثبت (موضوع داغ) و تعداد 39 موضوع دارای روند منفی (موضوع سرد) تعیین شد. بر اساس نتایج، موضوعات مطالعات سنجشی، مدیریت الکترونیکی/ بازاریابی الکترونیکی، بازیابی محتوا، تحلیل داده و مهارت الکترونیکی، ازجمله موضوعات داغ بود و موضوعات آموزش، آرشیو، مدیریت دانش، سازمان دهی و سلامت کتابداران ازجمله موضوعات سرد در حوزه علم اطلاعات و دانش شناسی در بازه زمانی 2010 تا 2019 شناسایی شد. تحلیل یافته ها نشانگر آن است که به دلیل رویکرد اغلب پژوهشگران در 10 سال گذشته به استفاده از فنّاوری های نوظهور، موضوعات مبتنی بر فنّاوری بیشتر باعث جذب آنان شده و در مقابل، موضوعات پایه ای این حوزه، کمتر موردتوجه قرارگرفته اند.
۳.
توسعه نوآوری در بخش خدمات یک فرایند پیچیده است که عوامل مختلفی بر آن تاثیر می گذارد و بخش خدمات به دلیل ماهیت تجاری خود باید در فرآیندهای نوآورانه خود به روز شود. ازآنجا که لازمه نوآوری دانش است، برای دستیابی به اهداف و نوآوری در صنعت، اساساً نیاز به استخراج دانش است. دانش مناسب و به موقع، صنعت را به سمت افزایش بهره وری و سطح نوآوری خود سوق می دهد. این مقاله به منظور ارائه مدل استخراج دانش در صنعت خدمات انجام شده است. بدین منظور از مدل نظریه ای داده بنیاد استفاده شده است که از لحاظ هدف، کاربردی و از لحاظ نحوه گردآوری اطلاعات جز پژوهش های کیفی می باشد. جامعه آماری شامل از خبرگان و مدیران در صنایع خدماتی می باشد و نمونه آماری با توجه به اشباع نظری 14 نفر می باشد که به شیوه هدفمند انتخاب شدند. ابزار گردآوری داده ها، در بخش کیفی، مصاحبه نیمه ساختاریافته بود. برای تأیید دقّت و صحّت داده ها، در مورد اعتبار مطالعه از شیوه بررسی به وسیله اعضای پژوهش استفاده گردید. در این پژوهش برای محاسبه پایایی، از روش توافق درون موضوعی استفاده شده است. درصد توافق موضوعی با 80 درصد قابلیت اعتماد کدگذاری ها را تایید می کند. برای کدگذاری از نرم افزار ATLAS.TI استفاده شد. بعد از تحلیل داده ها مدل استخراج دانش برای صنایع خدماتی استخراج شد. بر این اساس 122 مفهوم و 18 مقوله فرعی با استفاده از الگوی پارادایم استراوس و کوربین دسته بندی شده است. این عوامل در قالب مدل متداول نظریه داده بنیاد در 18 دسته قرار گرفتند که عبارتند از: شرایط علی (عوامل زیرساختی و فناورانه، عوامل ساختاری، منابع انسانی، فرهنگ سازمانی، حمایت مدیران ارشد)، شرایط زمینه ای (دانش استراتژیک سازمانی، مدیریت ارتباطات سازمانی، پشتیبانی از سیستم استخراج هوشمند دانش)، راهبردی (راهبردهای تجاری سازی دانش، راهبردهای خلاقیت، راهبردهای نوآورانه)، شرایط مداخله گر (ویژگی های فردی، عوامل مالی، عوامل مدیریتی)، پیامدها (ارزش آفرینی، مزیت رقابتی، جهانی شدن، رشد و بلوغ). لذا با توجه به نتایج به دست آمده از این پژوهش می توان منابع حیاتی در صنایع خدماتی را جهت استخرج دانش به موقع و مناسب شناسایی و دانش حاصل از این استخراج را به منظور ایجاد مزیت رقابتی در بازارهای داخلی و خارجی به کار برد.
۴.
هدف از این پژوهش، تحلیل مؤلفه ها و شاخص های نشر علمی در پایگاه های نشر علمی از منظر مؤلفه های دسترسی، ارتباطات، کنترل، زیرساخت، زبان، منابع اطلاعاتی(مواد)، پشتیبانی، فناوری، اقتصاد، ارزیابی ،آموزش، اخلاق و شاخص های آن ها بود. پژوهش حاضر از نوع کیفی بود و جامعه آن با استفاده از تحلیل محتوای متون علمی شناسایی شد. در مجموع 73 پایگاه نشر علمی شناسایی شد و نمونه آن بر اساس فراوانی و تأیید خبرگان به 12 پایگاه رسید که شامل پایگاه های آرشیو، دواج، الزویر، اشپرینگر،گوگل اسکالر، پاب مد، نیچر، وب او ساینس، اسکوپوس، مرکز اطلاعات سلامت، کنسرسیوم محتوای علمی اسپارک و آمازون (بخش منابع علمی) بود. ابزار این پژوهش شامل سیاهه وارسی بود که بر اساس مؤلفه ها و شاخص های نظام نشر علمی استخراج شد. یافته ها حاکی از این بود که تمامی مؤلفه های دسترسی، ارتباطات، کنترل، زیرساخت، زبان، منابع اطلاعاتی(مواد)، پشتیبانی، فناوری، اقتصاد، ارزیابی،آموزش و اخلاق در پایگاه های نشر علمی مورد توجه قرار گرفته اند و اختلاف پایگاه ها در کاربست شاخص های نشر علمی است. نتایج پژوهش نشان داد برخی مؤلفه هایی نظیر فناوری، پشتیبانی وکنترل و شاخص های آن ها دراین پایگاه ها اهمیت یکسانی دارند؛ در حالی که با توجه به نوع، قدمت و سیاست کلی هر پایگاه، در میزان اهمیت شاخص های برخی مؤلفه ها؛ مانند آموزش، اقتصاد و منابع اطلاعاتی؛ در میان پایگاه ها اختلاف هایی نظیر شیوه آموزش، تأمین منابع مالی و قالب های اطلاعاتی نیز مشاهده شد.
۵.
با توجه به نقش مهم و تعیین کننده واژگان تخصصی در مسیریابی دقیق و کامل پژوهش های علمی، هدف از پژوهش حاضر، تبیین میزان اثربخشی برچسب گذاری معنایی در رفع ابهام هم نویسه های تخصصی و کیفیت بازیابی حاصل از آن بود. این پژوهش از حیث هدف کاربردی و از حیث روش شناسی، از نوع کاربردشناسی تجربی یا پیکره ای است و روشی با نظارت محسوب می شود. از جمله فنون پردازش زبان طبیعی که برای دستیابی به هدف پژوهش به کار گرفته شد تحلیل ریخت شناسی و برچسب گذاری معنایی هم نویسه های تخصصی بود. جامعه پژوهش را 442 مقاله علمی در قالب دو گروه کنترل و آزمون تشکیل دادند. گروه کنترل دارای 221 متن کامل مقاله بدون برچسب و گروه تجربی دارای همان 221 مقاله اما این بار برچسب گذاری شده، بود که در نظام بازیابی اطلاعات برای تبیین اثربخشی برچسب گذاری معنایی در ابهام زدایی هم نویسه های تخصصی و کیفیت بازیابی متون علمی آزموده شدند. سطح معنی داری آزمون ویلکاکسون نشان داد که میزان کیفیت بازیابی نتایج بعد از به کارگیری پیکره تخصصی برچسب گذاری شده نسبت به قبل از آن تفاوت معنی داری دارد. بررسی رتبه های منفی و مثبت نشان داد این میزان به طور معنی داری افزایش یافته و به حد بیشینه آن یعنی 1 رسیده است. به عبارت دیگر در روش آزموده شده ی این پژوهش، فراخوانی و دقت که هر دو در تعیین میزان کیفیت بازیابی (معیار F ) تأثیر دارند در حد بهینه آن یعنی 1 به دست آمد. از یافته های پژوهش حاضر چنین برمی آید که لزوما بین فراخوانی و دقت رابطه معکوس وجود ندارد و این دو می توانند به موازات یکدیگر به حد بیشینه خود برسند. کارایی بهتر نظام بازیابی با استفاده از این رویکرد، به دلیل تجهیز نظام بازیابی به برچسب های موضوعی و در نتیجه آن توانمندسازی این نظام به تمایز موضوعی هم نویسه های تخصصی است. تعبیه مجموعه آموزش در ساختار نظام بازیابی، اطلاعات افزوده ای را فراهم می کند تا در خدمت نظام بازیابی برای تمایز بین معانی متعدد هم نویسه های تخصصی قرار گیرد. این ابزار، یکی از عناصری است که کیفیت بهینه بازیابی را موجب می شود و نظام بازیابی اطلاعات را هنگام بازیابی متون حاوی هم نویسه های تخصصی از بازیابی واژه محور به سمت بازیابی محتوامحور سوق می دهد.
۶.
سامانه های بافت آگاه با فراهم نمودن اطلاعات هم سو با ترجیحات و بافت کاربر به او خدمت می کنند. هدف این پژوهش شناخت بافت های مربوط به موجودیت های یک پایگاه اطلاعات پایان نامه ها و رساله های الکترونیکی است. پژوهش از نظر هدف کاربردی-توسعه ای است که در شناسایی مفاهیم، کدگذاری و دسته بندی بافت ها، از روش اسنادی استفاده شده است. سهم این پژوهش در افزایش دانش، شناخت بافت های موجودیت های سه گانه ی کاربر، مدرک الکترونیکی «پارسا» و سامانه است. یافته ها نشان داد که بافت های موجودیت کاربر در 10 دسته ی: هویت کاربر، علاقه و ترجیحات، فعالیت ها و تاریخچه، ارتباطات اجتماعی، بافت رایانشی، مکان های کاربر، زمان های کاربر، سطح دسترسی، وضعیت کاربر و محیط فیزیکی کاربر دسته بندی می شود. بافت های موجودیت پارسا دارای 8 دسته ی: هویت پارسا، سطح دسترسی به پارسا، مخاطبان، فعالیت ها و رویدادها، محتوای پارسا، زمان، مکان و قالب پارسا است. بافت های موجودیت سامانه در 8 دسته ی: ویژگی های سامانه، امکانات تعامل با کاربر، قابلیت نمایه سازی، ارتباط با سامانه ها، ذخیره سازی داده های کاربران، بافت رایانشی، فعالیت و مکان دسته بندی شد. انجام این پژوهش به توسعه دهندگان و تصمیم گیران سامانه های پارسا، شناختی از بافت ها می دهد که با درنظر گرفتن امکانات سامانه های بافت آگاه برای پاسخ به نیازهای کاربران، پیشنهاددهی مدرک، بازیابی اسناد کاربرمدار و تدوین روال های سازگاری سامانه، به بازطراحی سامانه و برطرف کردن نیاز کاربران بیردازند. در مطالعه حاضر سعی شده است همه بافت های یک سامانه ی پارسا شناسایی شود و علاوه بر بافت کاربر، به بافت های پارسا و سامانه نیز توجه شده است. توسعه دهندگان سامانه ی بافت آگاه پارسا بر اساس نوع خدمات مبتنی بر بافت به بخشی از بافت های شناسایی شده نیاز خواهند داشت.
۷.
در سال های اخیر، سازمان ها در بخش دولتی و خصوصی، با حجم بالایی از داده های ساختاریافته و غیرساختاریافته روبرو هستند که نیاز به یک چارچوب حاکمیتی داده های بزرگ احساس می شود. حاکمیت داده های بزرگ، با استفاده از پایش محیط و جمع آوری داده ها، ذخیره سازی و تجزیه و تحلیل داده ها ، اطلاعات مورد نیاز تصمیم گیرندگان سازمانی را تامین می کند. استقرار چارچوب حاکمیت داده های بزرگ، سازمان ها را در بخش دولتی و خصوصی قادر می سازد تا بر اساس شواهد و بینش، تصمیمات بهتری را اتخاذ نمایند. از این رو، هدف پژوهش حاضر بررسی ذهنیت خبرگان در زمینه استقرار حاکمیت داده های بزرگ است و برای این منظور از روش شناسی کیو استفاده شده است. جامعه آماری پژوهش حاضر شامل خبرگان سازمان های دولتی بوده و بر اساس نمونه گیری هدفمند، تعداد 38 نفر برای مطالعه انتخاب شدند. فضای گفتمان پژوهش حاضر شامل، کتب و مقالات معتبر داخلی و خارجی و مصاحبه نیمه ساختاریافته بود. تعداد گزاره هایی که در فضای گفتمان شناسایی شد شامل 52 گزاره بود که با تعدیل و حذف گزاره های تکراری، تعداد 48 گزاره نهایی شناسایی شد. سپس، هر کدام از گزاره های کیو شماره گذاری شد و از خبرگان خواسته شد تا شماره هر گزاره کیو را در نمودار کیو مرتب سازی کنند. برای تحلیل داده های حاصل از فضای گفتمان، از روش تحلیل عاملی اکتشافی و ماتریس همبستگی استفاده شد. برای بررسی روایی و پایایی روش پژوهش از آزمون آلفای کرونباخ، شاخص KMO و آزمون بارتلت استفاده شد. نتایج پژوهش حاضر، تعداد سه گونه ذهنیت را نشان داد که مقدار مجموع واریانس کل تبیین شده برابر با 81/80 درصد بود. مقدار درصد واریانس تبیین شده برای گونه اول برابر با 59/30 درصد و برای گونه دوم برابر با 31/26 درصد و برای گونه سوم برابر با 90/23 درصد بود. ارزیابی گزاره های مربوط به دهنیت خبرگان نشان می دهد که عمده خبرگان، بر نتایج استقرار حاکمیت داده های بزرگ تاکید دارند؛ بر مواردی مانند تسهیل جریان دانش، تصمیم گیری کارآ و اثربخش، عملکرد نوآورانه، تقویت کار تیمی و برنامه ریزی و تحلیل استراتژیک تاکید دارند. از طرفی، خبرگان بر پیشران هایی مانند فناوری اطلاعات، کنترل و نظارت بر داده ها، مکانیسم های ساختاری، ظرفیت دموکراتیک سازی و ظرفیت های قانونی توجه دارند. بطورکلی، برای بهره گیری از مزایای حاکمیت داده های بزرگ در سازمان های دولتی و کاستن از شکاف داده ای، باید بین گزاره ها و نتایج استقرار حاکمیت داده های بزرگ، هماهنگی و انطباق وجود داشته باشد و این پژوهش می تواند به عنوان تقشه راهی برای این مورد باشد.
۸.
زنجیره تامین در خصوص کالاهای با عمر کوتاه و فاسد شدنی به خصوص محصولات کشاورزی همواره یکی از با اهمیت ترین و چالش برانگیزترین مباحث مدیریتی در زمان های مختلف بوده است. زیرا، در تمامی مراحل فرایند تولید محصولات کشاورزی ممکن است عوامل غیر ایمن و غیر بهداشتی، سلامت محصولات کشاورزی را در معرض مخاطره قرار دهد. علاوه بر این، یکی از مسائل کلیدی زنجیره تامین کشاورزی حجم بالای هدر رفت محصولات در طول زنجیره تامین است. در ایران به عنوان یک کشور در حال توسعه سالانه حدود 30 درصد کل محصولات کشاورزی هدر می رود. حجم بالای ضایعات محصولات کشاورزی به ویژه در رابطه با محصول گندم به عنوان یک محصول سیاسی و راهبردی اهمیت بیشتری پیدا می کند. نتایج برخی از مطالعات نشان می دهد میزان زیادی از هدر رفت گندم، در کشورهای در حال توسعه به دلیل استفاده گسترده از شیوه های سنتی در بخش ذخیره سازی این محصول است. به نظر می رسد، بکارگیری فناوری های نوظهوری نظیر اینترنت اشیاء می تواند راه حل مناسبی برای این مساله باشد. با این وجود، شواهد نشان می دهد در زمینه بکارگیری اینترنت اشیاء در زنجیره تامین به ویژه در بخش لجستیک، کمبودهایی وجود دارد و پژوهشگران می بایست از طریق مدل سازی و بهینه سازی، شکاف های نظری موجود در این زمینه را پوشش دهند. از این رو، پژوهش حاضر در صدد است با استفاده از رویکرد علم طراحی اقدام پژوهانه این مساله مهم پژوهشی را برای اولین بار در ایران مورد تاکید قرار دهد. مهمترین یافته های این پژوهش، شامل مدل مفهومی داده، مدل منطقی پایگاه داده و مدل فیزیکی داده بکارگیری اینترنت اشیاء در بخش ذخیره سازی زنجیره تامین گندم می شود که با مشارکت خبرگان صنعتی و متخصصین مهندسی نرم افزار طراحی و اعتبارسنجی شده است. مدل های طراحی شده در این پژوهش می تواند برای پیاده سازی فناوری اینترنت اشیاء در مراکز ذخیره سازی گندم مفید باشد و به بخشی از مسائل مرتبط با این حوزه پاسخ دهد. یافته های این پژوهش می تواند راهنمای مناسبی برای مسئولان و تصمیم گیرندگان جهت توسعه و بکارگیری اینترنت اشیاء در بخش ذخیره سازی گندم باشد.
۹.
انباشت اطلاعاتی و ایجاد پایگاه های داده ای باعث شده است تا شرکت هایی که قصد دارند به مشتریان خود خدمات مناسب تری را ارایه کنند به سوی بهره مندی از ابزارهای نوین ارتباط با مشتری حرکت نمایندکه یکی از این ابزارها و روش ها، تکنیک های داده کاوی است که می تواند نقش مهم وکلیدی در مدیریت ارتباط با مشتری ایفا کند. هدف این پژوهش تحلیل ارزش مشتریان با رویکرد ترکیبی داده کاوی بر اساس مدل WRFM است بر این اساس 64858 نمونه از پایگاه داده مشتریان در دوره 1398- 1399 با روش نمونه گیری هدفمند در دسترس انتخاب شده است. وزن شاخص های مدل WRFM با نظرسنجی از 3 کارشناس خبره شرکت به کمک فرآیند تحلیل سلسله مراتبی تعیین شده است. بر اساس متغیرهای اولیه پژوهش و متغیرهای بدست آمده از شاخص های مدل WRFM ، ارزش خرید مشتریان تجزیه و تحلیل شده است. برای تجزیه وتحلیل داد ه ها از نرم افزار SPSS Modeler و SPSS استفاده شد. نتایج نشان می دهد که روش خوشه بندی K-Means نسبت به روش های خوشه بندی دو مرحله ای و شبکه عصبی کوهنن عملکرد بهتری دربخش بندی مشتریان داشته است در نهایت براساس معیارهای درصد خلوص، تکرار، میزان خطا و شاخص اطلاعات متقابل نرمال شده ( NMI ) از خوشه بندی های مختلف K-Means ، شش خوشه با امتیاز NMI (0/631) انتخاب شده است. این پژوهش مدل WRFM را برای تجزیه و تحلیل ارزش مشتری معرفی کرده است که وزن شاخص های این مدل با نظرسنجی از کارشناسان و با استفاده از فرآیند تحلیل سلسله مراتبی و بر اساس میزان ناسازگاری (0/052) که از روش تحلیل سلسله مراتبی بدست آمده است به ترتیب (0/15)، (0/29) و (0/56) تعیین شده است که این مقادیر نشان دهنده اهمیت بیشتر شاخص ارزش پولی نسبت به دو شاخص دیگر بوده است . در نهایت این شش خوشه با استفاده از شیوه نامگذاری بخش های بازار در پژوهش های(چانگ و تسای 2004؛ باباییان و سرفرازی 2019) در 4 دسته کلی: مشتریان کلیدی و ویژه، مشتریان بالقوه طلایی، مشتریان نامطمئن ازدست رفته و مشتریان نامطمئن جدید قرارگرفتند. بر طبق مدل پژوهش، شرکت باید بیشتر بر مشتریان خاص وکلیدی خود یعنی مشتریانی که در خوشه های اول، سوم و پنجم قرارگرفته اند تمرکز داشته باشد یعنی مشتریانی وفاداری که ضمن تداوم خرید خود دارای مقادیر بالاتر از میانگین در دو شاخص ارزش پولی و دفعات خرید بوده و به تازگی نیز خریدهای با ارزش ریالی بالا داشته اند که شرکت باید با توجه به منابع محدود خود استراتژی های بازاریابی کارآمدی برای این دسته از مشتریان درنظرگیرد تا ضمن حفظ مدیرت ارتباط با مشتری به سودآوری بیشتر برای شرکت منجر شود.
۱۰.
شناسایی روابط علّی و همچنین تعیین مرز عناصر علّی در متن، از جمله مسائل چالش برانگیز در پردازش زبان طبیعی (NLP < /span>) به ویژه در زبان های کم منبع مانند فارسی است. در این پژوهش، در راستای آموزش سیستمی برای شناسایی روابط علّی و مرز عناصر آن، یک پیکره علّیت برچسب خورده انسانی برای زبان فارسی معرفی می شود. این مجموعه شامل 4446 جمله (مستخرج از پیکره بیجن خان و متن یکسری کتاب) و 5128 رابطه علّی است و در صورت وجود، سه برچسب علت، معلول و نشانه علّی برای هر رابطه مشخص شده است. ما از این پیکره برای آموزش سیستمی برای تشخیص مرزهای عناصر علّی استفاده کردیم. همچنین، یک بستر آزمون شناسایی علّیت را با سه روش یادگیری ماشین و دو سیستم یادگیری عمیق مبتنی بر این پیکره ارائه می کنیم. ارزیابی های عملکرد نشان می دهد که بهترین نتیجه کلی از طریق طبقه بندی کننده CRF به دست می آید که معیار F برابر 76% را ارائه می کند. علاوه بر این، بهترین صحت (91.4٪) در روش یادگیری عمیق BiLSTM-CRF به دست آمده است. به نظر می رسد وجود CRF به دلیل مدلسازی بافتار منجر به بهبود دقت سیستم می شود.
۱۱.
این پژوهش با هدف بررسی تصاویر بازیابی شده از موتورهای کاوش برگزیده طبق ویژگی های نوشتاری و معنایی زبان فارسی و تعیین میزان ربط آن ها با استفاده از فرمول های جامعیت و دقت و نیز شناسایی کارآمدترین موتورکاوش در بازیابی تصاویر به زبان فارسی و به روش پیمایشی - تحلیلی و با استفاده از شیوه مشاهده مستقیم انجام گرفت. پس از مرور پژوهش های مرتبط، کلیدواژه های کاوش در قالب یک سیاهه بر اساس ویژگی های نوشتاری و معنایی زبان فارسی شکل گرفت. هر یک از این کلیدواژه ها در موتورهای کاوش مورد مطالعه شامل دو موتورکاوش معمولی گوگل و بینگ و موتور کاوش معنایی داک داک گو که در زمرهء موتورهای کاوش پراستفاده هستند و قابلیت جستجوی تصاویر به زبان فارسی را نیز فراهم نموده اند، جستجو و تعداد نتایج بازیابی شده مرتبط و غیر مرتبط ثبت گردید. سپس جامعیت و دقت نتایج جستجو در هر موتور کاوش محاسبه و به بررسی میزان ربط تصاویر بر اساس این ویژگی ها در هر یک از موتورهای کاوش مورد مطالعه پرداخته شد. برای تجزیه و تحلیل داده ها از انواع فنون آماری توصیفی به همراه آزمون کلموگروف-اسمیرنوف، شاپیرو-ویلک، کروسکال-والیس و فریدمن استفاده شد. یافته های پژوهش نشان داد موتورهای کاوش مورد مطالعه نسبت به ویژگی های نوشتاری و معنایی زبان فارسی توجه کافی ندارند و بسیاری از این ویژگی ها را در هنگام جستجو و بازیابی تصاویر نادیده می گیرند. در پژوهش حاضر، موتور کاوش گوگل از جامعیت و دقت بالاتری نسبت به دو موتور کاوش دیگر برخوردار بود و علیرغم ادعای موتورهای کاوش معنایی مبنی بر فراهم آوری اطلاعات با کیفیت تر و مرتبط تر نسبت به دیگر موتورهای جستجو، موتور کاوش داک داک گو عملکرد مطلوبی در زمینه بازیابی تصاویرمرتبط با بخش نوشتاری و معنایی زبان فارسی از خود نشان نداد. همچنین بین میزان جامعیت و دقت سه موتور کاوش مورد پژوهش اختلاف معناداری وجود دارد.
۱۲.
مطالعه ی رفتارکاربر بر اساس رویدادهایی که در مغز انسان و در مراحل مختلف رفتار اطلاع جویی رخ می دهد؛ علی رغم نوپایی روش شناختی، مورد استقبال پژوهشگران حوزه ی اطلاعات واقع شده است. در پژوهش حاضر تلاش شده است تا با روش مرور نظام مند، وضعیت پژوهش های انجام گرفته در عرصه ی رفتار اطلاع جویی از طریق مطالعه ی امواج مغزی بررسی شود و با شناسایی خلاء های پژوهشی، پیشنهادهایی برای پژوهش های پیش رو ارائه گردد. در این راستا، از ساختار مرور نظام مند کیتچنهام و چارترز (Kitchenham & Charters 2007) استفاده شده است. با اجرای جستجو در پایگاه های اطلاعاتی علمی به زبان انگلیسی و فارسی، در نهایت 22 منبع انگلیسی و یک منبع فارسی در بازه ی زمانی سال های 2007 تا 2020 یافت شد. در بررسی متون، برخی از مفاهیمی که فصل مشترک پژوهش ها بودند، گروه بندی شده و مبنای دسته بندی موضوعی قرارگرفتند. با مرور پژوهش ها، مشخص شد که بررسی «وضعیت ذهنی کاربر» (10 پژوهش) و «فعالیت امواج مغزی در مراحل مختلف رفتار اطلاع جویی» (12 پژوهش)، رویکردهای غالب موضوعی می باشند. دو مؤلفه ی «بار شناختی» و «سبک شناختی» به عنوان عوامل تاثیرگذار بر وضعیت کاربر شناسایی شدند. «نوع رسانه ی جستجو»، «قالب نمایش اطلاعات» و «شیوه ی خواندن متن» به عنوان سه عامل تاثیرگذار بر ایجاد بار شناختی در هنگام جستجو و پردازش اطلاعات تعیین شدند. ازآنجایی که روش مورد بررسی در این پژوهش، امواج مغزی بود؛ با مطالعه ی پژوهش ها مشخص شد که به دلیل اهمیت حرکات چشم در زمان خواندن، و نقش جدایی ناپذیر آن در فرآیند جستجوی اطلاعات، داده های چشمی نیز دارای اهمیت می باشند. تحلیل امواج مغزی و اتساع مردمک چشم، از مهم ترین سنجه های مورد استفاده در مطالعه ی وضعیت کاربر هنگام جستجو، و «امواج آلفا و تتا» به عنوان شاخص اندازه گیری سطح بار شناختی در فرآیند اطلاع جویی شناخته شدند. همچنین، داده های حاصل از حرکات چشم در هنگام رفتارهای جستجو، و به موازات آن میزان دشواری تکالیف که کاربر در حین جستجو احساس می کند؛ با سبک شناختی کاربران دارای همبستگی بود و درنتیجه ی آن، مشخص شد که انواع مختلفی از رفتارهای اطلاع جویی قابل طبقه بندی و شناسایی است. مراحلی که فعالیت مغزی کاربران در فرآیند اطلاع جویی مورد مطالعه قرار گرفته اند؛ به ترتیب عبارت بودند از «کاوش و فرمول بندی پرسش»، «فرمول بندی دوباره پرسش و انتخاب آن»، «تصمیم گیری و قضاوت درباره ی ربط». نتایج پژوهش ها نشان از تفاوت فعالیت نواحی مختلف مغزی، تغییر سطح اتساع مردمک چشم و تغییر در بسامد «امواج آلفا و بتا» در این سه مرحله از جستجو داشت. پیشنهادهای مطرح برای پژوهش های آتی با کمک مطالعه ی امواج مغزی و دستگاه الکتروآنسفالوگرافی، عبارت بودند از: بررسی رابطه همبستگی میان سبک شناختی با ویژگی های مربوط به تکلیف و دانش زمینه ای در فرآیند رفتار اطلاع جویی، توسعه ی سامانه های شخصی سازی بازیابی اطلاعات با همکاری بیشتر میان متخصصان حوزه اطلاعات و علوم اعصاب، پژوهش در احساسات، خشم و خستگی هنگام رفتار اطلاع جویی با رویکرد مطالعه ی مغزی، استفاده از روش های اقتصادی و ابزارهای قابل حمل برای کاهش هزینه های پژوهشی، ایجاد زیرساخت هایی با هدف افزایش تعداد جامعه ی آماری، و طراحی تکالیف استاندارد در زمینه ی پژوهش های مغزی. از خلاءهای پژوهشی مطرح شده، می توان به نیاز به پژوهش بیشتر برای درک مفاهیم پیچیده ای مانند ربط از طریق تحلیل امواج مغزی در فرآیند اطلاع جویی، و مطالعه ی احساسات کاربر با رویکردهای تلفیقی اشاره نمود.