صدای پای هوش مصنوعی در دادگاه ها/ سایه جعل نرم افزاری بر پرونده های حقوقی
ورود هوش مصنوعی به پرونده های حقوقی، تهدیدی جدی است و احتمال دارد مردم را به نظام های قانونی بی اعتماد کند.
خبرگزاری علم و فناوری قدم آخر؛ هوش مصنوعی در بسیاری از زمینه های زندگی ما و از جمله در سیستم حقوقی وارد شده و تحولاتی ایجاد کرده است، اما محتوای تولید شده توسط هوش مصنوعی، مانند قوانین جعلی، در منازعات حقوقی نگرانی های زیادی را برانگیخته است.
دادگاه ها برای ارایه پرونده های مبتنی بر قانون به وکلا متکی هستند، اما استفاده از قوانین جعلی ایجاد شده توسط هوش مصنوعی در اختلافات حقوقی این روند را تضعیف می کند. مدل های هوش مصنوعی بر اساس مجموعه داده های بزرگ آموزش داده می شوند و قوانین جعلی می سازند؛ و در صورت درخواست کاربر محتوای جدید متنی، تصویری یا شنیداری بسازد.
اگرچه محتوای تولید شده توسط هوش مصنوعی شاید قانع کننده به نظر برسد، اما به دلیل «توهم» هوش مصنوعی می تواند نادرست باشد. این زمانی است که مدل هوش مصنوعی تلاش می کند تا شکاف های داده های آموزشی خود را پر کند و در نتیجه محتوای نادرست تولید می کند که در نتیجه می تواند در اختلافات حقوقی دردسرساز باشد و به تصمیمات قانونی نادرست بیانجامد.
جنجال های حقوقی هوش مصنوعی
شناخته شده ترین «پرونده جعلی» که هوش مصنوعی مولد آن را ساخته است به پرونده «ماتا علیه آویانکا» در آمریکا در سال 2023 برمی گردد که در آن وکلا خلاصه ای از اتفاقات جعلی و استناد به پرونده را به دادگاه نیویورک ارسال کردند. این خلاصه با استفاده از چت جی پی تی مورد بررسی قرار گرفت و وکلا، غافل از آنکه این نرم افزار می تواند توهم بزند نتوانستند آن را راستی آزمایی کنند. عواقب این بررسی فاجعه بار بود و پس از فاش شدن این خطا، دادگاه پرونده موکل آنها را رد کرد، وکلا نیز به دلیل سوءنیت تحریم شدند و شرکت حقوقی شان نیز جریمه شد. اقدامات آنان نیز به طور رسمی اعلان عمومی شد.
نمونه های مشهور
با وجود چنین اتفاقات نامطلوبی، نمونه های دیگری همچنان اتفاق می افتند. مایکل کوهن، وکیل سابق دونالد ترامپ، پرونده های وکالت خود را با استفاده از نرم افزار گوگل بارد (ربات مولد هوش مصنوعی) تنظیم می کرد ولی ادعا می کرد که کار خودش بوده و واقعی است. موارد جعلی دیگری از این دست نیز به تازگی در کانادا و بریتانیا جنجال آفرینی کرده است.
چنانچه این روند کنترل نشود، استفاده بی محابا از هوش مصنوعیِ مولد اعتماد عمومی به سیستم قانونی را تضعیف می کند. قصور مداوم وکلا در استفاده از این ابزار ها می تواند باعث گمراهی و ازدحام در دادگاه ها شود، به منافع مشتریان آسیب برساند و به طور کلی حاکمیت قانون را تضعیف کند.
ما تصاویری از افراد مشهور را دیده ایم که توسط هوش مصنوعی و به روش جعل عمیق (دیپ فیک) ساخته شده اند. هوش مصنوعی همچنین در آهنگسازی، راندن اتومبیل های مسابقه ای بدون راننده و انتشار اطلاعات نادرست نیز نقش داشته است؛ بنابراین تعجب آور نیست که هوش مصنوعی نیز تاثیر قوی بر سیستم های حقوقی ما دارد.
دادگاه ها در پرونده های دعوی که وکلا آنها را پیگیری می کنند باید بر اساس اطلاعاتی که وکیل ارایه میکند تصمیمگیری کنند، بنابراین چنانچه محتوای پرونده با هوش مصنوعی جعل شود، بسیار نگران کننده خواهد بود که نه تنها مسایل قانونی و اخلاقی ایجاد میکند، بلکه تهدیدی برای بیاعتمادی به سیستم های حقوقی جهان است.
قوانین جعلی چگونه به وجود می آیند؟
شکی وجود ندارد که هوش مصنوعی مولد ابزاری قدرتمند با پتانسیل تحول آفرین برای جامعه، از جمله بسیاری از جنبه های سیستم حقوقی است. اما استفاده از آن با مسیولیت ها و خطراتی همراه است. وکلا برای به کارگیری دقیق دانش و تجربه حرفه ای آموزش دیده اند و عموماً ریسک پذیر نیستند. با این حال، برخی از وکلای بی احتیاط گرفتار خطا های هوش مصنوعی شده اند.
اگر هوش مصنوعی محتوای نادرست ایجاد کند یا محتوای نادرستی بسازد که به فرایند ها قانونی راه پیدا کند، مشکلساز می شود، به ویژه زمانی که با فشار بر وکلا یا عدم دسترسی به خدمات حقوقی همراه باشد. این ترکیب مخرب میتواند منجر به بیدقتی و میانبر هایی در تحقیقات حقوقی و تهیه اسناد شود و مشکلاتی برای حرفه وکالت و عدم اعتماد عمومی به اجرای عدالت ایجاد کند.
اقدامات جهانی
در سرتاسر جهان، قانون گذاران و دادگاه ها به روش های مختلف نسبت به این جریان واکنش نشان داده اند. چندین دادگاه ایالتی آمریکا راهنمایی، نظرات یا دستوراتی در مورد استفاده مولد از هوش مصنوعی صادر کرده اند که از پذیرش مسیولانه تا ممنوعیت کامل را شامل می شود. انجمن های حقوقی در بریتانیا و بریتیش کلمبیا و دادگاه های نیوزلند نیز دستورالعمل هایی را تدوین کرده اند.
در استرالیا، انجمن وکلای ان اس دابیلو (NSW) یک راهنمای هوش مصنوعی برای وکلای دادگستری دارد و مقالاتی را در مورد استفاده مسیولانه مطابق با قوانین رفتار وکلا منتشر کرده اند.
بسیاری از وکلا و قضات، مانند عموم مردم، درک درستی از هوش مصنوعی مولد دارند و می توانند محدودیت ها و مزایای آن را تشخیص دهند. اما افراد دیگری هم هستند که ممکن است آنقدر آگاه نباشند و نیاز به راهنمایی دارند.
در این میان رویکرد باید اجباری شود: وکلایی که از ابزار های هوش مصنوعی مولد استفاده می کنند نمی توانند آن را جایگزینی برای قضاوت و سخت کوشی خود بدانند و باید درستی و قابلیت اطمینان اطلاعاتی گردآوری شده را بررسی کنند.
به طور کلی، هوش مصنوعی مولد پتانسیل تحول آفرینی برای سیستم حقوقی دارد، استفاده از آن با مسیولیت ها و خطراتی همراه است. ایجاد تعادل بین استفاده از مزایای هوش مصنوعی و اطمینان از اینکه استفاده از محتوای تولید شده توسط هوش مصنوعی یکپارچگی سیستم قانونی را تضعیف نمی کند، مهم است.
این گزارش از پایگاه اینترنتی کانوِرسیشن برگردان شده است.
آیا شما به دنبال کسب اطلاعات بیشتر در مورد "صدای پای هوش مصنوعی در دادگاه ها/ سایه جعل نرم افزاری بر پرونده های حقوقی" هستید؟ با کلیک بر روی استان ها، به دنبال مطالب مرتبط با این موضوع هستید؟ با کلیک بر روی دسته بندی های مرتبط، محتواهای دیگری را کشف کنید. همچنین، ممکن است در این دسته بندی، سریال ها، فیلم ها، کتاب ها و مقالات مفیدی نیز برای شما قرار داشته باشند. بنابراین، همین حالا برای کشف دنیای جذاب و گسترده ی محتواهای مرتبط با "صدای پای هوش مصنوعی در دادگاه ها/ سایه جعل نرم افزاری بر پرونده های حقوقی"، کلیک کنید.