مطالب مرتبط با کلیدواژه
۱.
۲.
۳.
۴.
۵.
۶.
۷.
۸.
۹.
۱۰.
۱۱.
۱۲.
۱۳.
۱۴.
۱۵.
کیفیت داده
حوزه های تخصصی:
بعلت اهمیت داده هاى کدگذارى شده در فعالیت هاى مدیریت کیفیت، برنامه ریزى، بازاریابى، فعالیت هاى تحقیقاتى، پرداخت به ازاى خدمت، پایش امنیت بیمار و توسعه ابزارهاى حمایت تصمیمات بالینى، ضرورت رعایت عناصرکیفى کدگذارى بیش از پیش احساس مى گردد. داشتن دانش کاملى در زمینه عناصر کیفى کلیدى سیستم هاى طبقه بندى داده ها از قبیل اعتبار، کامل بودن و بهنگام بودن، براى کدگذارى داده ها در تمامى سطوح مراقبت بهداشتى ضرورى است. در این پژوهش وضعیت اعتبار و کامل و بهنگام بودن اطلاعات کدگذارى شده در بیمارستان هاى آموزشى دانشگاه هاى علوم پزشکى ایران، تهران و شهید بهشتى مقایسه شد.
روش بررسی: پژوهش حاضر توصیفی- مقایسه اى است که در شش ماهه اول سال 1386 انجام شد. جامعه پژوهش شامل پرونده بیماران بسترى ترخیص شده از بیمارستان هاى آموزشى دانشگاه هاى علوم پزشکى ایران(10بیمارستان)، تهران (9 بیمارستان) و شهید بهشتى(10بیمارستان) در نیمه اول سال 1385 بود. داده ها با استفاده از یک چک لیست براى تعیین میزان رعایت اعتبار، کامل بودن و بهنگام بودن گردآورى شد. تحلیل داده ها بااستفاده از روش هاى آمار توصیفى و استفاده از نرم افزار SPSS انجام شد.
یافته ها: میزان رعایت اعتبار کدها، در دانشگاه هاى ایران ، تهران و شهید بهشتى به ترتیب 32/83 ، 23/79 و 53/85 درصد براى تشخیص اصلى، 46/79 ، 04/75 و 87/ 88 درصد براى سایر تشخیص ها، 23/85 ، 62/80 و 41/85 درصد براى اقدامات اصلى، 84/80، 49/84 و 3/91 درصد براى سایر اقدامات بود. میزان رعایت کامل بودن کدها در سه دانشگاه فوق بترتیب 06/93، 91/96 و 96/97 درصد براى تشخیص هاى اصلى، 08/88، 76/90 و 02/95 درصد براى سایر تشخیص ها، 70/96، 94 و 93/98 درصد براى اقدامات اصلى، 85/93، 35/97 و 65/95 درصد براى سایر اقدامات است. از بین بیمارستان هاى سه دانشگاه فوق، فقط 20 درصد بیمارستان هاى شهید بهشتى از بهنگام بودن کدگذارى برخورداربودند.
نتیجه گیری: هر چند کامل بودن داده هاى کدگذارى شده تا حدودى بهبود یافته است اما میزان اعتبار کدها هنوز با مشکلاتى همراه است. همچنین اکثر بیمارستان ها اختلاف فاحشى با استاندارد سازمان بهداشت جهانى در بهنگام بودن کدگذارى داشته اند. بنابراین لازم است اقدامات اساسى جهت بهبود کیفیت کدگذارى در این حیطه ها اتخاذ گردد. "
رویکردی سیستماتیک به چالش کیفیت داده در راهبرد مشتری محور در صنعت بانک داری(مقاله علمی وزارت علوم)
حوزه های تخصصی:
دانشی که در هستی به عنوان سرمایه بشری شناخته شده و در قالب فناوری جای گرفته، کانون توسعه اقتصادی بوده است. سرمایه گذاری در دانش، مانند تحقیق و توسعه، آموزش و پژوهش و رویکرد های کاری نوآورانه کلیدهای اصلی رشد اقتصادی در نظر گرفته می شوند. امروز با افزایش رقابت در صنایع مختلف از جمله بانک داری، دانش مشتری به یکی از محورهای اصلی کسب وکار بدل شده است. تولید دانش تنها مبتنی بر پردازش داده هایی است که دقت و صحت آنها بر درستی دانش تولید شده تأثیر می گذارد. در بانک های ایرانی داده های مشتریان از ضعف کیفیت رنج می برند. این پژوهش با رویکردی سیستماتیک و با استفاده از متدولوژی سیستم نرم (SSM) به بررسی این معضل پرداخته است. بر طبق گام های متدولوژی به بیان مشکل و استخراج تصویر غنی پرداخته شده است. در ترسیم تصویر غنی با مدیران و کارکنان بانک و نیز دانشگاهیانی که به تحقیق در این حوزه پرداخته اند مصاحبه شده است. این پژوهش استفاده از شش سیگما را برای بهبود کیفیت داده توصیه کرده و بر طبق این روشِ بهبود مستمر به ارائه مدلی برای بهبود مستمر کیفیت داده مشتریان پرداخته است.
نگاشت علّی مدیریت محصول آماری با رویکرد کیفیت داده(مقاله علمی وزارت علوم)
حوزه های تخصصی:
کیفیت داده یک ویژگی مهم و ضروری برای هر پایگاه داده است . کیفیت داده از جمله مباحث مهمی است که اگر به آن توجه نشود، نمی تواند نیاز سازمان را تأمین کند. اگر داده ها از کیفیت پایینی برخوردار باشند مسلماً بر کیفیت تصمیمات و فرآیند سازمان نیز اثر خواهد گذاشت و چنان چه داده ها از کیفیت پایینی برخوردار باشند موجب حصول نتایج بد و نابسامانی سازمان خواهد شد. یکی از جنبه های مهم در مورد کیفیت داده، تضمین کیفیت است. شاید داده های کافی جمع آوری شده باشند اما این که داده ها از دقت کافی برخوردار باشند و در عین حال به روز بوده تا سازمان ها ا ز جمله سازمان های ملی آماری، بتوانند برای تصمیم گیری و تصمیم سازی از آن استفاده کنند مربوط به جنبه ی تضمین کیفیت داده ها است. هدف پژوهش حاضر آن است که ضمن بازشناسی مفهوم مدیریت کیفیت داده و ابعاد آن، به بعد مدیریت محصول آماری در مدیریت کیفیت داده بپردازد. به عبارت دیگر در این پژوهش ضمن شناسایی عناصر بعد مدیریت محصول آماری، به تبیین شدت اثر هریک از عناصر پرداخته شده است. روش تحقیق این پژوهش، دیمتل می باشد که از جمله روش های حوزه تحقیق در عملیات نرم می باشد. یافته ها حاکی از آن است که عناصر تضمین انسجام، تضمین درستی و جامعیت از شدت اثر بالایی برخوردار بوده و بر سایر عناصر بعد مدیریت محصول آماری از اثرگذاری بالایی برخوردار می باشد. لذا مدیران مراکز آماری جهت افزایش و ارتقاء سطح کیفیت داده ها عناصر مذکور را در اولویت برنامه ریزی خود قرار دهند.
واکاوی ویژگی های مناسب داده ها برای استفاده در سیاستگذاری(مقاله علمی وزارت علوم)
منبع:
سیاست دوره ۴۹ تابستان ۱۳۹۸ شماره ۲
515 - 534
حوزه های تخصصی:
داده های خوب به عنوان یکی از مهم ترین شواهد تأثیرگذار بر سیاستگذاری، قادر است موانع سیاستی را از بین ببرد و امکان انجام اصلاحات سیاستی را فراهم آورد. با وجود این، بسیاریازسیاستگذاران در بهره گیری از داده ها درتدوینسیاست ها،با موانعی مواجهند.ازاین رو، هدفپژوهشحاضرشناسایی این موانع و ویژگی های مناسب داده ها برای کاربرد در سیاستگذاری است. در این زمینه، ابتدا موانع پیشروی سیاستگذاران در استفاده از داده ها در سیاستگذاری با روش مصاحبه شناسایی و سپس با استفاده از رویکرد تحلیل چارچوب، ویژگی های مناسب داده ها برای غلبه بر موانع در سه قالب ابعاد، مؤلفه ها و شاخص ها ارائه می شود. براساس نتایج مهم ترین ابعاد کیفیت داده ها در سیاستگذاری عبارت اند از: قابلیت دسترس پذیری، قابلیت اطمینان، مرتبط بودن و کیفیت نمایش داده ها. همچنین مهم ترین مؤلفه های کیفیت داده ها در سیاستگذاری شامل قابلیت دستیابی، به موقع بودن، دقت و صحت، ثبات، تمامیت، استقلال، شفافیت، تناسب و خوانایی داده هاست.
بررسی تاثیر هوش تجاری بر تصمیم گیری سازمانی با در نظر گرفتن نقش میانجی متغیرهای کیفیت داده و زمینه هوش تجاری ( مورد مطالعه : کارکنان فروشگاه کوثر قم)
حوزه های تخصصی:
هوش تجاری تحت عنوان ابزاری که روال های مختلف، محصولات و فناوری ها را بهبود می بخشد، بسیار حائز اهمیت است. مبتنی بر ابزارهای هوش تجاری، یک شرکت قادر است پیرامون نیازمندی های مشتری خود و اقدامات رقابتی یادگیری بیشتری داشته باشد و تصمیم گیری های سازمانی کامل تری داشته باشد. البته در این میان نقش کیفیت داده و زمینه هوش تجاری را نمی توان نادیده گرفت. کیفیت داده شامل تمامیت، منحصر به فردی، اعتبار، دقت و سازگاری داده می باشد و زمینه هوش تجاری نیز شامل چارچوب های پیاده سازی هوش تجاری در سازمان می باشد. در این پژوهش به بررسی تاثیر هوش تجاری بر تصمیم گیری سازمانی با درنظرگرفتن نقش میانجی متغیرهای کیفیت داده و زمینه هوش تجاری در فروشگاه کوثر قم پرداخته شده است. ابزار گردآوری اطلاعات، پرسشنامه استاندارد دارای 30 گویه بوده است. جهت تجزیه و تحلیل داده های تحقیق از نرم افزار های SPSS و PLS استفاده شده است. روش تحقیق از نظر هدف کاربردی و از نظر شیوه گردآوری توصیفی-پیمایشی محسوب می شود. جامعه آماری تحقیق، کارکنان فروشگاه کوثر قم می باشند. نتایج تحقیق نشان داد که هوش تجاری هم بطور مستقیم هم غیر مستقیم از طریق متغیرهای میانجی کیفیت داده و زمینه هوش تجاری بر تصمیم گیری سازمانی تاثیر مثبت و معنی داری دارد.
پایش شاخص های کیفیت داده های پژوهشی به کمک نمودار کنترل مشاهده های انفرادی با دامنه متحرک(مقاله علمی وزارت علوم)
حوزه های تخصصی:
شاخص های کلیدی عملکرد یک ابزار سودمند در حوزه مدیریت عملیات است و به مدیران ارشد سازمان در ایجاد بهبود مستمر در فرآیندها و واحدهای مختلف اجرایی یاری می رسانند. در سامانه های اطلاعاتی پژوهشی، داده به عنوان منبعی ارزشمند در سرتاسر فرآیند پژوهش به حساب می آید و بخش زیادی از ارزش افزوده ایجاد شده در این فرآیند وابسته به کیفیت داده های پژوهشی است. از سوی دیگر کنترل کیفیت داده ها یکی از مهم ترین فعالیتها در راستای اطمینان از مطلوب بودن سطح کیفیت خروجی سازمان است که امروزه به کمک یک ابزار قدرتمند به نام نمودار کنترل انجام می شود. در این مقاله بمنظور پایش عملکرد سامانه های اطلاعاتی تحقیقاتی شاخص هایی مانند صحت، کامل بودن و دقت توسعه داده شده اند. داده های پایان نامه/ رساله (پارسا)های دانشجویان تحصیلات تکمیلی کل کشور که در سامانه گنج اشاعه داده می شوند، به کمک نمودار کنترل I-MR پایش شده اند. نتایج پایش مستمر کیفیت داده در شاخص های مختلف نشان می دهد که در برخی داتشگاه ها که به تازگی به سامانه ثبت پیوسته اند به دلیل عدم آشنایی با روند سامانه و ثبت اطلاعات و نبود آموزش کافی در برخی شاخص ها مانند دقت و صحت نوسانات زیادی وجود دارد و نیاز است اقدامات اصلاحی مناسبی انجام شود. در انتها، ارائه بازخورد به موقع به دانشجویان در خصوص مشکلات کیفی داده ها، پیغام های اطلاع رسانی ) مناسب در زمان تکمیل فیلدها توسط دانشجویان تحصیلات تکمیلی و ارائه آموزش های تصویری و تدوین دستورالعملهای لازم به عنوان اقدامات اصلاحی در خصوص ارتقاء کیفیت داده ها و قابلیت فرآیندهای تولید داده، پیشنهاد شده است.
شناخت و تحلیل سیستمی متدولوژی های کیفیت داده و ارائه یک چارچوب جامع (با استفاده از روش فراترکیب)(مقاله علمی وزارت علوم)
حوزه های تخصصی:
علی رغم وجود تحقیقات فراوان در حوزه کیفیت داده، تاکنون پژوهشی که بتواند دیدگاه جامعی نسبت به متدولوژی های کیفیت داده فراهم آورد، انجام نشده است. در این مطالعه 3909 مقاله و پژوهش مرتبط در بازه ی زمانی ماقبل 2020 از نمایه های استنادی وب آوساینس[1] و اسکوپوس انتخاب شد که با استفاده از روش فراترکیب و معیارهای ورود در نهایت 27 مقاله در راستای هدف پژوهش مورد ارزیابی قرار گرفتند. در این راستا ضمن به کارگیری دیدگاه سیستمی، با استفاده از روش کدگذاری باز، کدهای مربوط به سه مقوله ی اصلی رویکرد سیستمی شامل ورودی، فرایند و خروجی استخراج گردیدند و مفاهیم مشابه در کدهای فرعی و در ادامه کدهای فرعی در کدهای اصلی دسته بندی شدند. ورودی های اصلی شامل زمینه و وضعیت سازمان، داده ها و منابع اطلاعاتی و ابعاد کیفیت داده هستند. همچنین گام های متدولوژی های کیفیت داده در سه مرحله اصلی بازسازی وضعیت، ارزیابی/ اندازه گیری و ارتقاء طبقه بندی شده اند. علاوه بر این خروجی های کیفیت داده در شش دسته کلی شامل فهرست فعالیت ها و تکنیک های مرتبط مشخص شده برای ارتقاء کیفیت داده ها، فرایندهای کنترل شده یا بازطراحی شده، جریان ها و پایگاه های داده اندازه گیری یا ارتقاء داده شده، نتایج ارائه شده از وضعیت کیفیت داده، سیاست ها یا قوانین کیفیت داده تصحیح شده و هزینه ها و منفعت ها طبقه بندی شده اند. نتایج حاصل از این پژوهش می تواند ابزار مناسبی جهت شناخت متدولوژی های کیفیت داده موجود و همچنین ارزیابی نقاط ضعف و قوت متدولوژی های کیفیت داده باشد. [1] Web Of Science (WOS)
طراحی مدل مبتنی بر ارجاعات تجمعی به منظور بررسی کشف و تحلیل تغییرات علمی در حوزه کیفیت داده(مقاله علمی وزارت علوم)
منبع:
مدیریت فناوری اطلاعات دوره ۹ تابستان ۱۳۹۶ شماره ۲
301 - 312
حوزه های تخصصی:
شناخت حوزه های علمی و بررسی تغییرات آن از اهمیت بسزایی برخوردار است. در این مقاله با ارائه مدلی مبتنی بر ارجاعات تجمعی زمان مبنا، تغییرات علمی حوزه کیفیت داده بررسی و تحلیل شده است. از ویژگی های این مدل، قابلیت انطباق بر سایر حوزه ها و همچنین قابلیت نمایش کلیه تغییرات علمی از جمله تولد، ادغام، شکست یا مرگ یک حوزه علمی است. گام های اجرایی این مدل به ترتیب عبارت اند از: آماده سازی داده، استخراج مدل ارجاعات زمان مبنا، کشف مجامع علمی، اتصال مجامع علمی، استخراج مدل تغییرات، تحلیل تغییرات علمی. به منظور بررسی کیفیت مدل ارائه شده، کلیه مقالات به چاپ رسیده بین سال های 1970 تا 2009 که بیش از 7000 مقاله را شامل می شود، بررسی شدند. بر اساس مدل مبتنی بر ارجاعات تجمعی زمان مبنا، مشخص شد حوزه کیفیت داده در حوزه های مختلف در حال مطالعه است. همچنین بر اساس بررسی انجام شده، بین تعداد ارجاعات و رشد حوزه کیفیت داده، همبستگی 82 درصدی وجود دارد که نشان دهنده اهمیت ارجاعات برای زنده ماندن و رشد حوزه های علمی است
ارائه یک روش ساختارمند در اندازه گیری و تحلیل کیفیت اطلاعات پایان نامه ها و رساله های درون کشور(مقاله علمی وزارت علوم)
حوزه های تخصصی:
امروزه، اندازه گیری کیفیت داده یکی از مهم ترین راهبردها در بهبود فرایندهای کسب وکارهای داده محور به حساب می آید. هرگونه تصمیم درست برای بهبود سیستم ها در این دسته از سازمان ها به یک تحلیل مناسب از کیفیت داده ها وابسته است. داده های پژوهشی و به ویژه، پایان نامه/ رساله ها (پارساها)ی دانش آموختگان کل کشور بر پایه همین اصل از جنبه های گوناگون کیفیت داده نیازمند بررسی و ارزیابی است. در فرایند ثبت «پارسا»ها کنترل کیفیت فراداده ها یکی از مهم ترین بخش هاست که به بررسی اقلام اطلاعاتی مدارک (مانند نام پژوهشگر، استادان راهنما و مشاور، چکیده، فهرست و ...) می پردازد. در وضعیت موجود، مدارک ناهمخوان در فرایند کنترل کیفیت شناسایی شده و مدرک مربوطه پس از درج در سامانه (به صورت متن) به صورت سیستمی به پژوهشگر برگردانده می شود. استاندارد نبودن ناهمخوان های شناسایی شده و نبودِ دسته بندی مناسب برای مدارک ناهمخوان به اطلاع رسانی سلیقه ای به پژوهشگران منجر شده، تحلیل های آماری از مشکلات کیفی فراداده ها را با دشواری روبه رو ساخته، و تحلیل ریشه ای خطاهای مشاهده شده را ناممکن می سازد. از این رو، در این پژوهش ساختار ناهمخوان های مشاهده شده پس از استاندارد شدن به صورت آزمایشی در دوره های دوماهه استفاده شده و نتایج آن ارائه شده است. ناهمخوانی در تاریخ دفاع، صفحه عنوان (فارسی و انگلیسی) و وجود صفحه های سفید در فایل «پارسا» از جمله مهم ترین دلایل بازگرداندن مدارک به کاربران بوده است. همچنین، تحلیل همه داده ها نشان داد که ۵۹ درصد از ناهمخوانی ها به فایل های ضمیمه شده و ۴۱ درصد به اطلاعات ثبت شده در سامانه مربوط می شود. در نهایت، بر پایه تحلیل های انجام شده، رهنمودهایی به منظور بهبود کیفیت داده ها به تفکیک حوزه های تخصصی برای کاربران سامانه ارائه شده است
واکاوی ابعاد و مولفه های کیفیت داده در نظام آموزش مهارت با تاکید بر سازمان آموزش فنی و حرفه ای کشور(مقاله علمی وزارت علوم)
منبع:
مهارت آموزی دوره ۱۰ تابستان ۱۴۰۱ شماره ۴ (پیاپی ۴۰)
۱۲۶-۹۹
با توجه به اهمیت آمار در سیاست گذاری و برنامه ریزی ها، همواره موضوع کیفیت آمارهای ارائه شده، دغدغه ی اصلی استفاده کنندگان و تولیدکنندگان آمار بوده است. بنابراین لازم است درجه ی اعتماد، دقت، صحت و سایر ویژگی های داده ها و به عبارتی «کیفیت» این داده ها تضمین شود. بی شک سازمان آموزش فنی و حرفه ای کشور به عنوان یکی از ارکان مهم آموزش های مهارتی، نیازمند یک نظام داده های عملکردی با کیفیت و استاندارد است. شناخت این نظام راهگشای بازطراحی این نظام بر پایه ابعاد کیفیت و حکمرانی داده است. در این راستا در این تحقیق به بررسی و استخراج این ابعاد و مولفه ها پرداخته شده است. در این مطالعه از روش تحقیق آمیخته به منظور واکاوی و تبیین ابعاد و مولفه های کیفیت داده در سازمان آموزش فنی و حرفه ای بهره برده شده است. یافته های تحقیق نشان داد که به جزء در بُعد قابلیت بازنمایی داده ها، در سایر ابعاد کیفیت داده (کیفیت ذاتی داده ها، کیفیت زمینه ای، قابلیت دسترسی و قابلیت نمایش) در سطح اطمینان 95 درصد، بین وضعیت مطلوب و وضعیت موجود کیفیت داده در سازمان مذکور، تفاوت معنی داری وجود دارد (مقدار آماره t بیشتر از 96/1 و میزان معنی داری کمتر از 01/0 است). در نتیجه می توان گفت که وضعیت موجود نظام کیفیت داده سازمان آموزش فنی و حرفه ای کشور در حد مطلوب نبوده و لازم است مبتنی بر چارچوب های بین المللی مدیریت و تضمین کیفیت داده، نسبت به ارتقاء سطح کیفی نظام داده های عملکردی خود اهتمام ورزد.
کاربست قوانین انجمنی و خوشه بندی در کنترل کیفیت داده های پژوهشی؛ مورد مطالعه پایگاه اطلاعات علمی ایران (گنج)(مقاله علمی وزارت علوم)
پایگاه های اطلاعات علمی و موتورهای جستجو از ابزارهای اصلی کار پژوهشگران است. برای بازیابی دقیق و صحیح اطلاعات از این پایگاه ها نیاز است که اطلاعات با کیفیت مناسب وبا کمترین خطا ذخیره شوند. کنترل دستی اطلاعات زمانبر و پر هزینه است، در این مقاله، روش های داده کاوی برای کنترل کیفیت یک پایگاه اطلاعات پژوهشی معرفی می شود. برای این منظور ابتدا باید اطلاعاتی از خطاهای مرسوم را در کنار سایر اطلاعات هر رکورد جمع آوری کرد. سپس با استفاده از روش های داده کاوی الگوهای پنهان و روابط بین خطاها را کشف کرد و بر این اساس راه های بهبود کیفیت داده را ارائه داد. در این مقاله پایگاه اطلاعات علمی ایران (گنج)، به عنوان مطالعه موردی در نظر گرفته شد. 59 کد خطا توسط خبرگان تعریف شد. سپس اطلاعات فراداده هر رکورد مثل نام دانشگاه، نام رشته،گرایش و حوزه تخصصی مدرک به همراه کدهای خطای آن در یک مجموعه داده ذخیره شد. این مجموعه داده شامل 41021 رکورد در حوزه های مختلف است. با استفاده از روش های آماری و قوانین انجمنی رابطه بین خطاها و الگوی تکرار آنها را درهرحوزه بررسی شد. نتایج نشان داد به طور میانگین با در نظر گرفتن 25 درصد از خطاها در هر حوزه، می توان تا 80 درصد از خطاهای همه رکوردهای یک حوزه را کاهش داد. این خطاها شامل خطاهای پر تکرار در هر حوزه و همچنین خطاهایی است که با آن ها رابطه قوی دارند. با استفاده از روش خو شه بندی k-means رکوردها خوشه بندی شدند. نتایج نشان داد اگر چه شباهت هایی بین رکوردها از حوزه های مختلف وجود دارد، اما رابطه معناداری بین حوزه رکوردها و الگوی تکرار خطاها وجود ندارد.
ارائۀ یک چارچوب مفهومی برای پیش پردازش و بهبود کیفیت نگاره های رویداد در فرایندکاوی(مقاله علمی وزارت علوم)
در دنیای پیچیده امروز حیات سازمان ها و کسب وکارها بدون شناخت و استفاده کارآمد از داده ها امکان پذیر نخواهد بود. فرایندکاوی با ترکیب روش های یادگیری ماشین و مفاهیم مدیریت فرایندهای کسب وکار، تلاش دارد تا دانش نهان مربوط به چگونگی اجرای فرایندها را از داده های ذخیره شده در سامانه های اطلاعاتی استخراج نماید. اولین گام در فرایندکاوی، فعالیت کشف فرایند است که امکان مدل سازی فرایندها بر مبنای داده های رویداد ورودی را فراهم می سازد. اما استفاده از این مزیت بدون وجود داده های مناسب و با کیفیت فراهم نخواهد شد، زیرا هرگونه تحلیل بر پایه داده های با کیفیت پایین منجر به ایجاد بینش و تصمیمات نامناسبی می شود که بر عملکرد سازمان یا کسب وکار تاثیر منفی خواهند گذاشت. هدف این پژوهش ارائه یک چارچوب مفهومی جدید برای پیش پردازش داده های ورودی به روش های کشف فرایند است تا کیفیت مدل فرایند نهایی بهبود یابد. چارچوب مفهومی پیشنهادی با استفاده از یک روش پژوهش کیفی بر اساس نظریه داده بنیاد پدید آمده است. بدین منظور 102 پژوهش مرتبط با حوزه کیفیت داده در فرایندکاوی مورد بررسی قرار گرفته و مهمترین چالش های کیفیت داده در این زمینه پس از پالایش و یکپارچه سازی آن ها از ادبیات شناسایی شده اند که شامل: «رویدادهای آشفته/کم تکرار»، «رویدادهای پرت»، «رویدادهای ناهنجار»، «مقادیر گمشده»، «قالب زمانی نادرست»، «برچسب های زمانی مبهم»، «فعالیت های مترادف» و «اندازه و پیچیدگی» می باشند. در ادامه گام های اساسی برای پیش پردازش و پاک سازی مناسب داده ها تعیین شده اند که در برگیرنده فعالیت های «ترمیم»، «کشف ناهنجاری»، «پالایش» و «کاهش ابعاد» می شوند. سپس چارچوب مفهومی نهایی بر پایه مشکلات کیفیت داده و فعالیت های پاک سازی شناسایی شده، ایجاد شده است. برای بررسی عملکرد چارچوب پیشنهادی از چهار مجموعه داده استاندارد برگرفته از فرایندهای واقعی استفاده شده است، که این داده ها در مرحله اول به صورت خام و در مرحله دوم پس از انجام پیش پردازش توسط چارچوب معرفی شده به چهار الگوریتم متداول کشف فرایند اعمال شده اند. نتایج نشان داد که پیش پردازش داده های ورودی منجر به بهبود معیارهای کیفیت مدل استخراج شده از الگوریتم های کشف فرایند می شود. همچنین برای سنجش اعتبار چارچوب پیشنهادی، عملکرد آن با سه روش پیش پردازش «نمونه برداری»، «پیش پردازش آماری» و «انتخاب نمونه اولیه» مقایسه شده، که برآیندها بیانگر کارایی بهتر رویکرد پیشنهادی بوده است. نتایج پژوهش حاضر می تواند به عنوان یک رهیافت کاربردی توسط متخصصان و تحلیلگران داده و کسب و کار در پروژه های فرایندکاوی مورد استفاده قرار گیرد.
بررسی میزان ثبت صحیح و به موقع اطلاعات تبادل یافته از سیستم های اطلاعات بیمارستانی به سامانه پرونده الکترونیک سلامت ایران(مقاله پژوهشی وزارت بهداشت)
منبع:
مدیریت سلامت دوره ۲۲ تابستان ۱۳۹۸ شماره ۷۶
۴۰-۲۸
حوزه های تخصصی:
مقدمه: یکی از موانع موجود در تبادل اطلاعات میان سیستم های اطلاعات بیمارستانی و سامانه پرونده الکترونیک سلامت ایران، عدم ثبت صحیح و به موقع اطلاعات می باشد. هدف مطالعه حاضر، بررسی میزان ثبت صحیح و به موقع اطلاعات مربوط به بیماران موجود در پرونده های الکترونیک بیمارستانی است که ارسال اطلاعات آن ها به سامانه سپاس ناموفق بوده است. روش ها: مطالعه حاضر توصیفی بوده و در سال 1395 انجام شد. در این مطالعه 882 پرونده ارسال نشده از سیستم های اطلاعات بیمارستانی در بیمارستان های آموزشی دانشگاه علوم پزشکی کرمان به سپاس با استفاده از یک چک لیست، بررسی شد. به منظور محاسبه فراوانی ثبت صحیح و به موقع عناصر داده در سیستم های اطلاعات بیمارستانی مورد بررسی، از نرم افزار SPSS نسخه 22 استفاده شد. یافته ها: در مجموع در مطالعه حاضر 18758 عنصر داده بررسی شد. بطور کلی میزان ثبت صحیح و به موقع عناصر داده بررسی شده در این سیستم ها 97درصد و 87/99درصد محاسبه بود. بیشترین میزان ثبت نادرست عناصر داده مربوط به شماره شناسنامه، کد ملی و محل زندگی بیمار بود. همچنین، بیشترین میزان عدم ثبت به موقع عناصر داده نیز مربوط به تشخیص نهایی و علت فوت بیمار بوده است. نتیجه گیری: نتایج مطالعه حاضر، نشان داد میزان ثبت صحیح و به موقع اطلاعات در سیستم های اطلاعات بیمارستانی از مقدار بالایی برخوردار بود. این مطالعه موارد زیادی از نقض صحت و به موقع بودن اطلاعات ارسالی به سپاس را شناسایی کرد که ممکن است یکی از دلایل آن عدم دقت و سهل انگاری کاربران باشد. استفاده از روش هایی مانند آموزش و توجیه کاربران نسبت به ثبت صحیح و به موقع اطلاعات و طراحی سیستم ها همراه با قابلیت ارائه بازخورد، می تواند تاحدود زیادی به بهبود ثبت صحیح و به موقع اطلاعات موجود در سیستم های اطلاعاتی کمک نمایند.
ارایه مدل مدیریت کیفیت داده برای حکمرانی داده با استفاده از روش فراترکیب(مقاله علمی وزارت علوم)
حوزه های تخصصی:
تمام سازمان ها برای اجرای فرایندهایشان از داده ها استفاده می کنند. داده های سازمانی یا توسط خود سازمان تولید شده اند یا سازمان های دیگری آن ها را ایجاد کرده و در اختیارشان قرار داده اند. داده ها و اطلاعات نقش اساسی در تصمیم گیری ها و عملکردهای فرایندهای سازمانی دارند. به همین دلیل داده ها، بخشی از منابع سازمان و شاید مهم ترین منبع سازمان ها محسوب می شوند. از این رو، هدف از انجام این پژوهش ارائه مدل کیفیت داده برای حکمرانی داده می باشد. روش پژوهش به صورت فراترکیب به کار گرفته شد. لذا از 268 منبع یافت شده، طی مراحل فراترکیب، 62 مقاله با استفاده از کلید واژه هایی از جمله؛ داده، مدیریت داده، حکمرانی داده و مدیریت کیفیت داده در پایگاه های ایرانداک، Science Direct، Google Scholar، Springer، IEEE و ACM در بین سال های (1995-2022) انتخاب گردید. در این پژوهش ابتدا برای تمام عوامل استخراج شده از مطالعات پیشمشخص شدند. برای کنترل کدها و مقوله های استخراجی از دو کدگذار استفاده شد و شاخص موردنظر در این زمینه، شاخص کاپا است. بر اساس تحلیل های صورت گرفته به کمک روش تحلیل محتوا، در مجموع تعداد 12 مقوله اصلی («ویژگی داده، داده، فابل داده، ارزش داده، ارزش اولیه داده، الگوی داده، مجموعه داده، دسترسی به داده، ترکیب داده، قالب بندی داده، فراداده و عینی بودن داده») و 47 مقوله فرعی برای مدیریت کیفیت داده برای حکمرانی داده کشف و مشخص شدند. ین، کدی در نظر گرفته و سپس با در نظر گرفتن مفهوم هر یک از کدها، آن ها در یک مفهوم مشابه دسته بندی شد. به این ترتیب مفاهیم پژوهش
اولویت گذاری ابعاد کیفیت دانش در سازمان های داده محور (مورد مطالعه: پژوهشگاه علوم و فناوری اطلاعات ایران)(مقاله علمی وزارت علوم)
حوزه های تخصصی:
هدف: امروزه دانش از مهمترین مزیت های رقابتی و ایجاد ارزش برای سازمان ها محسوب می شود و برای استفاده مؤثر از دانش باید به کیفیت آن توجه نمود. سازمان های داده محور بر دارایی های داده ای خود تکیه دارند. داده های با کیفیت و قابل اعتماد در سازمان ها باعث اتخاذ تصمیمات بهتر می شود. همچنین کیفیت دانش در سازمان های داده محور باعث رشد و افزایش سودآوری و نوآوری می شود. در این راستا، پژوهش حاضر به منظور بررسی و اولویت بندی ابعاد کیفیت دانش در سازمان های داده محور صورت گرفته است. روش پژوهش: جامعه آماری این پژوهش را 10 نفر از خبرگان این حوزه در پژوهشگاه علوم و فناوری اطلاعات ایران تشکیل می دهند. جهت گردآوری داده ها ضمن مرور ادبیات موضوع، از ابزارهای مصاحبه با خبرگان پژوهشگاه علوم و فناوری اطلاعات ایران و پرسش نامه استفاده شده است. برای تجزیه و تحلیل داده ها از روش دیمتِل فازی برای تعیین روابط میان شاخص ها و از روش فرایند تحلیل شبکه (ANP) برای وزن دهی و اولویت بندی معیارها استفاده شده است. یافته ها: نتایج تجزیه و تحلیل داده ها از طریق پرسش نامه و حل با استفاده از نرم افزار اکسل نشان می دهد که در میان معیارهای اصلی، معیار کیفیت نمایشگری دانش از اولویت بالاتری برخوردار است. همچنین در میان زیرمعیارها، میزان قابلیت توسعه پذیری با وزن (15089/0) اولویت اول، قابل درک بودن با وزن (14039/0) اولویت دوم و قابلیت تفسیرپذیری با وزن (13687/0) اولویت سوم را کسب کردند. نتیجه گیری: در پژوهش حاضر به بررسی و رتبه بندی معیارها و زیرمعیارهای کیفیت دانش در پژوهشگاه علوم و فناوری اطلاعات ایران پرداخته شد. نتایج تجزیه و تحلیل داده ها بر اساس روش FDANP نشان داد که در میان چهار سطح کیفیت دانش، کیفیت نمایشگری دانش با وزن (27726/0) به عنوان مهمترین معیار شناخته شده است. تفسیر این موضوع می تواند این باشد که مصرف کنندگان دانش قادر به عمل بر روی دانشی هستند که به طور مناسب از لحاظ سهولت درک و قابلیت تفسیر پذیری به آنها ارائه شده باشد.