از آنجایی که علم داده پیچیدهتر میشود و مصرفکنندگان به طور فزایندهای خواستار تجربه مشتری شخصیتر هستند، هوش مصنوعی ابزاری برای کمک به کسبوکارها برای درک بهتر مشتریان و مخاطبان است. اما حتی اگر هوش مصنوعی تمام پتانسیلهای موجود در جهان را داشته باشد، اگر نتوانیم دریابیم که چگونه چالشهای اخلاقی باقی مانده را حل کنیم، ممکن است این پتانسیل کامل هرگز محقق نشود. با تکامل این فناوری، یک سوال که باید توسط همه رهبرانی که به دنبال اجرای استراتژی هوش مصنوعی هستند در ذهن داشته باشند این است که چگونه می توان استفاده از هوش مصنوعی را در سازمان به شیوه ای اخلاقی و مسئولانه به حداکثر رساند. سازمانها برای پیادهسازی و مقیاسبندی قابلیتهای هوش مصنوعی که بازده سرمایهگذاری مثبتی را ارائه میکنند، در عین حال که ریسک را به حداقل میرسانند، تعصبات را کاهش میدهند و هوش مصنوعی را به سمت ارزش سوق میدهند، سازمانها باید از چهار اصل پیروی کنند:
1. درک اهداف، اهداف و خطرات
حدود هفت سال پیش، یک سازمان چیزی را منتشر کرد که آنها آن را "چرخه تبلیغات برای فناوری های نوظهور" نامیدند و فناوری هایی را که جامعه و تجارت را در دهه آینده متحول خواهند کرد، پیش بینی کرد. هوش مصنوعی یکی از این فناوری هاست. انتشار این گزارش، شرکتها را بر آن داشت تا به تحلیلگران و سرمایهگذاران ثابت کنند که هوش مصنوعی دارند و بسیاری شروع به اعمال استراتژیهای هوش مصنوعی در مدلهای تجاری خود کردهاند. با این حال، گاهی اوقات ثابت میشود که این استراتژیها ضعیف اجرا میشوند و تنها میتوانند به عنوان یک فکر بعدی برای اهداف تحلیلی یا عددی موجود استفاده شوند. این به این دلیل است که کسب و کارها درک روشنی از مشکل تجاری که به دنبال هوش مصنوعی برای حل آن هستند ندارند. تنها 10 درصد از مدلهای هوش مصنوعی و ML که توسط شرکتها توسعه داده شدهاند، اجرا میشوند. هوش مصنوعی از گسست تاریخی بین کسب و کار مورد بحث و دانشمندان داده که می توانند از هوش مصنوعی برای حل مشکل استفاده کنند، عقب مانده است. با این حال، با افزایش بلوغ دادهها، شرکتها شروع به ادغام مترجمان دادهها در زنجیرههای ارزش مختلف کردهاند، مانند نیازهای کسبوکار بازاریابی برای کشف و تبدیل نتایج. به همین دلیل است که اصل اساسی توسعه یک استراتژی هوش مصنوعی اخلاقی درک تمام اهداف، اهداف و خطرات و سپس ایجاد یک رویکرد غیرمتمرکز برای هوش مصنوعی در سازمان است.
2. رسیدگی به تعصب و تبعیض
کسبوکارهای بزرگ و کوچک متحمل آسیب به شهرت شدهاند و مشتریان به آنها اعتماد ندارند، زیرا راهحلهای هوش مصنوعی هرگز به درستی برای مقابله با سوگیری ایجاد نشدهاند. بنابراین، کسبوکارهایی که مدلهای هوش مصنوعی را ایجاد میکنند باید اقدامات پیشگیرانه را انجام دهند تا مطمئن شوند راهحلهای آنها آسیبی به آنها وارد نمیکند. راه انجام این کار ایجاد چارچوبی برای جلوگیری از هرگونه تاثیر منفی بر پیش بینی های الگوریتم است. به عنوان مثال، اگر شرکتی بخواهد احساسات مشتری را از طریق نظرسنجیها درک کند، مانند اینکه چگونه یک جامعه کم نمایندگی از خدمات خود دریافت میکند، ممکن است از علم داده برای تجزیه و تحلیل این نظرسنجیهای مشتریان استفاده کند و تشخیص دهد که درصدی از پاسخها به زبانهایی غیر از انگلیسی هستند. تنها زبانی که الگوریتم هوش مصنوعی احتمالاً می تواند بفهمد. برای حل این مشکل، دانشمندان داده نه تنها می توانند الگوریتم را اصلاح کنند، بلکه می توانند تفاوت های ظریف پیچیده زبان را نیز بگنجانند. اگر آنها بتوانند این تفاوتهای زبانی را درک کنند و هوش مصنوعی را با زبان روانتر ترکیب کنند تا این نتیجهگیریها را عملیتر کنند، کسبوکارها میتوانند نیازهای جوامعی را که کمتر از آنها نمایندگی میکنند برای بهبود تجربه مشتری خود درک کنند.
3. طیف کاملی از داده های اساسی را توسعه دهید
الگوریتمهای هوش مصنوعی قادر به تجزیه و تحلیل مجموعه دادههای بزرگ هستند و کسبوکارها باید چارچوبهایی را برای استانداردهای دادهای که مدلهای هوش مصنوعی آنها استفاده میکنند، در اولویت قرار دهند. برای اجرای موفقیت آمیز هوش مصنوعی، یک مجموعه داده جامع، شفاف و قابل ردیابی ضروری است. هوش مصنوعی باید مداخله انسان را در نظر بگیرد. مانند زبان عامیانه، اختصارات، کلمات رمزی، و بسیاری از کلمات دیگر که انسان ها بر اساس تکامل مستمر ایجاد کرده اند، که هر کدام می توانند الگوریتم های هوش مصنوعی بسیار فنی را به اشتباه بیندازند. مدلهای هوش مصنوعی که قادر به مدیریت این تفاوتهای انسانی نیستند، در نهایت فاقد مجموعه داده کلی هستند. این مانند تلاش برای رانندگی بدون آینه عقب، با برخی اطلاعات مورد نیاز، اما عدم وجود نقاط کور کلیدی است. کسب و کارها باید تعادلی بین داده های تاریخی و مداخله انسانی پیدا کنند تا مدل های هوش مصنوعی این تمایزات پیچیده را درک کنند. با ترکیب داده های ساختاریافته و بدون ساختار و آموزش هوش مصنوعی برای تشخیص هر دو، می توان مجموعه داده جامع تری تولید کرد و دقت پیش بینی ها را بهبود بخشید. علاوه بر این، ممیزی شخص ثالث مجموعه داده ها می تواند یک مزیت اضافی باشد، بدون تعصب و مغایرت.
4. از "جعبه سیاه" توسعه الگوریتم اجتناب کنید
رویکردها برای اینکه هوش مصنوعی اخلاقی باشد، باید کاملاً شفاف باشد. برای توسعه استراتژی های هوش مصنوعی که به طور همزمان شفاف، قابل توضیح و توضیح هستند، شرکت ها باید "جعبه سیاه" کد را باز کنند تا بفهمند هر گره در الگوریتم چگونه نتیجه گیری می کند و نتایج را تفسیر می کند. در حالی که این ساده به نظر می رسد، دستیابی به آن نیازمند یک چارچوب فنی قوی است که می تواند رفتار مدل و الگوریتم را با نگاه کردن به کد زیربنایی برای نشان دادن پیش بینی های فرعی متفاوتی که در حال تولید هستند، تفسیر کند. کسبوکارها میتوانند برای ارزیابی مدلهای هوش مصنوعی و ML در ابعاد مختلف، از جمله:
تجزیه و تحلیل ویژگی: برای ارزیابی تأثیر اعمال ویژگی های جدید در مدل های موجود
تحلیل گره: زیر مجموعه ای از پیش بینی ها را توضیح دهید
تجزیه و تحلیل محلی: پیش بینی های فردی و ویژگی های تطبیق را برای بهبود نتایج تفسیر کنید
●تحلیل جهانی: یک بررسی از بالا به پایین از رفتار کلی مدل و ویژگی های کلیدی ارائه می دهد. هوش مصنوعی یک فناوری پیچیده است که اگر کسب و کارها مراقب نباشند، مشکلات احتمالی زیادی دارد.
یک مدل هوش مصنوعی موفق باید اخلاق را از روز اول در اولویت قرار دهد، نه یک فکر بعدی. در سراسر صنایع و مشاغل، هوش مصنوعی برای همه یکسان نیست، اما یک وجه مشترک که باید پیشرفت کند، تعهد به پیشبینی شفاف و بیطرفانه است.
