პასუხისმგებლობის განსაზღვრის პრობლემა საარბიტრაჟო წარმოების დროს AI-ს მიერ მიღებულ გადაწყვეტილებებზე

შესავალი

       თანამედროვე ეპოქაში ხელოვნური ინტელექტი სამართლიანადაა მიჩნეული მეოთხე ინდუსტრიული რევოლუციის პირმშოდ.[i]  სულ უფრო და უფრო იზრდება მისი როლი სამართლებრივ სფეროშიც. ხელოვნური ინტელექტის ინტეგრაცია საარბიტრაჟო წარმოებაში დაჩქარებული ტემპით გარდაქმნის მის პროცედურულ საკითხებს.  არბიტრაჟისთვის, როგორც დავის გადაწყვეტის ალტერნატიული და არატრადიუციული მექანიზმისთვის, მნიშვნელოვანია სწრაფი და ეფექტური ადაპტირება ცვლილებებთან.

      ხელოვნური ინტელექტის ინსტრუმენტებს უპირობოდ აქვთ პოტენციალი არბიტრაჟის პროცესი გახადონ უფრო ეფექტური და მოქნილი. თუმცა, AI-ის გამოყენების სიხშირის ზრდის კვალდაკვალ იზრდება მასთან დაკავშირებული რისკებიც. აღნიშნული საკითხი პრობლემურია, რამდენადაც არ არსებობს სამართლებრივად მბოჭავი ხასიათის აქტი, რომელიც AI-ს გამოყენების ფარგლების დაარეგულირებდა.

        წინამდებარე ბლოგ-პოსტი წარმოადგენს ხელოვნური ინტელექტის არბიტრაჟში გამოყენების ერთი კონკრეტული ასპექტის მიმოხილვის მოკრძალებულ მცდელობას, სახელდობრ, საბოლოო გადაწყვეტილების მიღების პროცესში ტრიბუნალის მიერ AI-ს დასაშვებობისა და ფარგლების საკითხის.  ბლოგ-პოსტი მიზნად ისახავს ქართველი არბიტრებისთვის სწორი პრაქტიკის ჩამოყალიბებას. ეს სეგმენტი განხილულია პრაქტიკული თვალსაზრისითაც, აშშ-ში მიმდინარე *LaPaglia v Valve Corporation* საქმის მაგალითზე. ბოლოს, მიმოხილულია საარბიტრაჟო ორგანიზაციების მიერ დადგენილი სახელმძღვანელო პრინციპები, რომელთა დათქმაც მხარეთა შეთანხმებაში მათ სავალდებულოდ გასათვალისწინებელს გახდის ტრიბუნალისთვის, ხოლო შეთანხმებაში ამგვარი დათქმის არ გაკეთება, არბიტრის ნებასა და არჩევანზე ტოვებს, დაიცვას კეთილსინდისიერების პრინციპი და გამოიჩინოს სათანადო გულისხმიერება ხელოვნური ინტელექტით სარგებლობისას.

1. არბიტრაჟში AI-ს გამოყენების ზოგადი მიმოხილვა

     ამერიკელი მეცნიერის, როი ამარას ცნობილ ფრაზას თუ გავიხსენებთ, რომელიც “ამარას კანონის” სახელწოდებითაა ცნობილი (Amara’s Law) და მას უშუალოდ AI-ს ჭრილში განვიხილავთ, მივალთ დასკვნამდე, რომ ხელოვნური ინტელექტი მოკლე დროში უტრირებული ნეგატივით არ უნდა შევაფასოთ, არამედ სამომავლო პერსპექტივაში უნდა ვცადოთ მისი პოტენციალის დანახვა.[ii]

     ის მახასიათებლები, რაც არბიტრაჟს გააჩნდა და მიიჩნეოდა მის საპირწონედ სასამართლო საქმისწარმოებასთან ან დავის გადაწყვეტის სხვა ალტერნატიულ მექანიზმებთან, დღესდღეობით შეცვლილია. უფრო კონკრეტულად, თუკი არბიტრაჟს, სასამართლოსთან შედარებით, ახასიათებდა სისწრაფე, ნაკლები ფორმალურობა და ნაკლები ხარჯები,  ბოლო დროინდელი მონაცემებით უფრო და უფრო ემსგავსება მას: არის მეტად ფორმალური, უკავშირდება სოლიდურ ხარჯებს და დროის თვალსაზრისითაც  არ არის ეფექტური.[iii] ხელოვნური ინტელექტის საარბიტრაჟო საქმისწარმოების პროცესში დანერგვას კი აქვს პოტენციალი ამ პრობლემის გადაჭრის. მისი, როგორც დამხმარე საშუალების გამოყენებით დაიზოგება სამუშაო რესურსი, მოკლე დროში, შედარებით ნაკლები ხარჯითა და ძალისხმევით მივიღებთ ეფექტურ შედეგებს. 

      დღესდღეობით, ხელოვნური ინტელექტის გამოყენება არბიტრების მიერ არა მხოლოდ თეორიული შესაძლებლობა, არამედ პრაქტიკული რეალობაა. ბოლო დროინდელი კვლევების ანალიზის შედეგად, ივარაუდება, რომ ხელოვნური ინტელექტის გამოყენება, მნიშვნელოვნად გაიზრდება მომდევნო ხუთი წლის განმავლობაში. აღნიშნულს განაპირობებს მისი ეფექტურობის პოტენციალი. ჯერ-ჯერობით ხელოვნური ინტელექტის გამოყენების მიმართლებები მოიცავს ფაქტობრივ და სამართლებრივ კვლევას, მონაცემთა ანალიზს და დოკუმენტების მიმოხილვას.[iv]

       ასევე, მოსალოდნელია, რომ ხელოვნური ინტელექტის დახმარება სამართლებრივი არგუმენტების შედგენასა და შეფასებაში გაიზრდება, თუმცა ეს უკანასკნელი კვლავ კითხვის ნიშნის ქვეშ რჩება სიზუსტესთან, ეთიკურ საკითხებთან და ხელოვნური ინტელექტის მიერ კომპლექსურ სამართლებრივ  საკითხზე სათანადო მსჯელობის უნართან დაკავშირებით.[v]

      AI-მ შესაძლოა საფრთხე შეუქმნას სამართლიანი განხილვის უფლებას და მიიღოს სამართლებრივად დაუსაბუთებელი ან მხარისთვის ზიანის მომტანი გადაწყვეტილება, დაარღვიოს კონფიდენციალურობა, დააზიანოს არბიტრაჟის, როგორც დავის გადაწყვეტის მექანიზმის რეპუტაცია, შედეგად კი დაკარგოს მხარეთა ნდობა. ეს უკანასკნელი განსაკუთრებით საყურადღებოა, რამეთუ დოქტრინაში ერთხმადაა აღიარებულია ფაქტი, რომ ხშირად სწორედ სასამართლო სამართალწარმოებისადმი უნდობლობის გამო ირჩევენ მხარეები არბიტრაჟს.[vi] გარდა ამისა, თავად ხელოვნური ინტელექტის მიერ გენერირებული ინფორმაციისადმი ნდობის საკითხიც არაა პრაგმატული, ვინაიდან, საკმაოდ ხშირია AI-ს ენოვანი მოდელების მიერ ე.წ. „ჰალუცინაციების“ შედგენის შემთხვევები, რა დროსაც პრაქტიკაში არ არსებული საქმეების მაგალითებს ადგენენ.

2. ხელოვნური ინტელექტის გამოყენებისა და სამართლიანი განხილვის უფლების კოლიზია

  ხელოვნური ინტელექტის გამოყენება გადაწყვეტილების მიღების ფუნქციის შესასრულებლად, რომელიც ერთმნიშვნელოვნად ტრიბუნალის პრეროგატივაა, ბადებს საფუძვლიან კითხვებს სამართლიანი განხილვის უფლების (Due process) დაცულობასა, გამჭვირვალობასა და ადამიანის როლზე გადაწყვეტილების მიღების პროცესში. სამართლიანობის ფუნდამენტური პრინციპი მოითხოვს, რომ მხარეებს ჰქონდეთ შესაძლებლობა, წარმოადგინონ თავიანთი პოზიციები და უპასუხონ მათ წინააღმდეგ წარდგენილ მტკიცებულებებსა და არგუმენტებს. მაშინ,  როდესაც არბიტრი ეყრდნობა ხელოვნური ინტელექტის მიერ გენერირებულ ანალიზს ან დასკვნებს, ამის შესახებ კი წინასწარ  მხარეებს არ ატყობინებს, სამართლიანი პროცესის ძირითადი უფლება შეიძლება დაირღვეს.

     ასევე, საარბიტრაჟო გადაწყვეტილება უნდა იყოს სამართლებრივად დასაბუთებული და  შეიცავდეს სამოტივაციო ნაწილს, რომელშიც მითითებული იქნება ის მოტივები, რომელთა საფუძველზეც ტრიბუნალმა გამოიტანა გადაწყვეტილება.[vii] თუ ხელოვნური ინტელექტი მნიშვნელოვნად უწყობს ხელს ამ მსჯელობის განვითარებას, გადაწყვეტილების დასაბუთებულობის ხარისხი არასანდო ხდება, მისი ნამდვილობა და აღსრულებადობა კი საეჭვო, განსაკუთრებით იმ   სასამართლოებისთვის, რომლებიც ნიუ-იორკის კონვენციის შესაბამისად განიხილავენ გადაწყვეტილებებს.[viii]

     რაც შეეხება არბიტრის მიერ ხელოვნური ინტელექტის გამოყენების ფაქტის მხარეებისთვის ან/და მათი წარმომადგენლებისთვის გაცხადების საკითხს, იგი არაერთგვაროვანია. ერთი მხრივ, თუ დავავალდებულებთ არბიტრებს განაცხადონ ხელოვნური ინტელექტის გამოყენების ფაქტი და ფარგლები, მხარეებს შეუნარჩუნებთ ტრიბუნალის ნეიტრალურობისა და დამოუკიდებლობისადმი ნდობა. მეორეს მხრივ, არსებობს რისკები, რომ მხარემ მისთვის არასასურველი შედეგის მქონე გადაწყვეტილება ხელოვნური ინტელექტის გამოყენებას დაუკავშიროს და ერთ დროს საბოლოო გადაწყვეტილება, რომელიც იშვიათ შემთხვევებში საჩივრდებოდა, იქცეს ხშირი სასამართლო განხილვის საგნად.

3. კონფიდენციალურობისა და გამჭვირვალობის თანაზომიერება

      კამერალურობა და ეფექტურობა არბიტრაჟის ფუძემდებლური პრინციპები და მახასიათებლებია.[ix] საარბიტრაჟო პროცესი მხარეთა შეთანხმებით უმეტესად კონფიდენციალურია. კამერალურობა კი ხშირად ფარავს არა მხოლოდ წარმოების პროცესში გამჟღავნებულ ინფორმაციას, არამედ თავად არბიტრაჟის მიმდინარეობის ფაქტსაც.

      გადაწყვეტილებები, როგორც წესი, საბოლოო და სავალდებულოა გასაჩივრების მინიმალური საფუძვლებით. ხელოვნური ინტელექტის დახმარების  სავალდებულო გამჭვირვალობა შეიძლება წინააღმდეგობაში მოვიდეს ტრიბუნალის სათათბირო პროცესების კონფიდენციალურობასთან და გამოიწვიოს მათ მიერ მიღებული გადაწყვეტილების გაუქმების რისკების ზრდა. ანალოგიურად, ხელოვნური ინტელექტის მიერ მოწოდებული ინფორმაციის ახსნა-განმარტების მოთხოვნამ შეიძლება შეანელოს სამართალწარმოება. აქედან გამომდინარე, მნიშვნელოვანია დაბალანსებული მიდგომის პოვნა, რომელიც თანაზომიერად დაიცავს კონფიდენციალურობას და გამჭვირვალობას.

  • გადაწყვეტილების მიღების დელეგირების აკრძალვა

        არბიტრაჟის არსებითი პრინციპია, რომ გადაწყვეტილების მიღების ფუნქციის დელეგირება დაუშვებელია.[x] არბიტრის მანდატი პერსონალურია, ეყრდნობა რა მხარეთა ნდობას მის მიერ მიღებული გადაწყვეტილების სამართლიანობაში. ხელოვნურ ინტელექტზე ზედმეტად დაყრდნობა, განსაკუთრებით ისეთ ასპექტებში, როგორებიცაა გადაწყვეტილების მიღება და დასაბუთების ფორმულირება, შეიძლება ჩაითვალოს უფლებამოსილების დაუშვებელ დელეგირებად.[xi] მაშასადამე, ამ პრინციპის დარღვევას რომ თავი ავარიდოთ, აუცილებელია არბიტრებმა AI გამოიყენონ როგორც დამხმარე მექანიზმი და არა როგორც „უფლებამონაცვლე“. ამასთან, SVAMC-ის და CIArb-ის გაიდლაინები  ხაზს უსვამენ, რომ საბოლოო გადაწყვეტილება და მისი დასაბუთება უშუალოდ არბიტრის მიერ უნდა შემუშავდეს. რაც შეეხება პასუხს კითხვაზე, თუ ვის ეკისრება პასუხისმგებლობა AI-ს მიერ დაუსაბუთებელი, ან ზიანის მომტანი საბოლოო გადაწყვეტილების მიღების შემთხვევაში, მაინც არ არის სწორხაზოვანი. ზოგიერთი ინსტიტუტი პირდაპირ ითვალისწინებს არბიტრის იმუნიტეტს გადაწყვეტილებაზე (მაგალითად, GIAC), ხოლო ხელოვნური ინტელექტის სამართალსუბიექტობა კი მხოლოდ იურიდიული ფიქციის დონეზეა შესაძლებელი.[xii] ვინაიდან ხელოვნური ინტელექტის ერთგვაროვანი ცნება, მით უფრო მისი ზუსტი იურიდიული დეფინიცია  არ არსებობს, რთულია მის შესახებ სავალდებულო რეგულაციების შემუშავება, ამიტომ ზოგჯერ ბუნდოვანია პასუხისმგებლობის საკითხი ხელოვნური ინტელექტით მიყენებული ზიანისთვის.[xiii]

  • LaPaglia v Valve Corporation

     ზემოაღნიშნული დილემების უკეთ დემონსტრირებისთვის მიმოვიხილოთ საქმე : *LaPaglia v. Valve Corp.*[xiv] კომპიუტერული თამაშების მომხმარებელმა დეველოპერმა, LaPaglia-მ („მოსარჩელე“) ამერიკის არბიტრაჟის ასოციაციას მიმართა არბიტრაჟის დაწყების ინიცირებით და მოითხოვა კომპენსაცია Valve Corp.-ისგან („მოპასუხე“).  ტრიბუნალი ერთი არბიტრისგან იქნა ფორმირებული. საბოლოო პროცედურული კონფერენციიდან 15 დღის შემდეგ, არბიტრმა გამოიტანა 29 გვერდიანი საბოლოო, მავალდებულებელი გადაწყვეტილება Valve-ს სასარგებლოდ.

     მოსარჩელემ არბიტრაჟის გადაწყვეტილების გაუქმების შესახებ საჩივრით მიმართა აშშ-ს კალიფორნიის შტატის სასამართლოს და მოითხოვა გადაწყვეტილების ბათილად ცნობა. მან მიუთითა, რომ ხელოვნურ ინტელექტზე დაყრდნობით, არბიტრმა გადააჭარბა მხარეთა საარბიტრაჟო შეთანხმების ფარგლებით შეზღუდულ უფლებამოსილებას, რომელიც „ნეიტრალურ არბიტრს“ აძლევს მათ შორის დავების გადაწყვეტის უფლებამოსილებას და ავალდებულებს აღნიშნულ არბიტრს, წარმოადგინოს „წერილობითი გადაწყვეტილება სამართლებრივი საფუძვლებით. ასევე მან ხაზი გაუსვა, რომ არბიტრი მხარეებისთვის გაუცხადებლად დაეყრდნო AI-ს, რამაც დაარღვია მისი საქმის სამართლიანი განხილვის ფუნდამენტური უფლება.  მიუთითა ფაქტზე, რომ არბიტრს აღნიშნული ჰქონდა, რომ აქამდეც გამოუყენებია ChatGPT დროის დაზოგვის მიზნით. მოსარჩელემ ასევე ანალოგია გააკეთა  *Move, Inc. v. Citigroup Global Mkts.* საქმესთან და აღნიშნა, რომ როგორც მესამე პირზე გადაცემის შემთხვევაში გააუქმა გადაწყვეტილება, ასევე უნდა გააუქმოს სასამართლომ, როდესაც გადაწყვეტილების მიღების უფლებამოსილების დელეგირება ხდება ხელოვნური ინტელექტისთვის.

  • სახელმძღვანელო პრინციპები ხელოვნური ინტელექტის გამოყენებისა არბიტრაჟში

      იქიდან გამომდინარე, რომ მყარი და სავალდებულო რეგულაციები არ არსებობს, საერთაშორისო საარბიტრაჟო ორგანიზაციების მიერ ხდება სარეკომენდაციო ხასიათის ე.წ გაიდლაინების შემუშავება. რამდენადაც AI განაგრძობს განვითარებას, წესები კრიტიკულად მნიშვნელოვანი იქნება ინოვაციისა და არბიტრაჟის პროცესის მთლიანობას შორის ბალანსის შესანარჩუნებლად, თუმცა შეიძლება  სამომავლოდ იქცეს გარკვეული მოდიფიკაციის საგნად. 

     სილიკონის ველის მედიაციისა და არბიტრაჟის ცენტრმა (“SVAMC”)[xv] 2024 წლის შეიმუშავა სახელმძღვანელო პრინციპები, რომლის მე-3 ნაწილი უშუალოდ არბიტრებს მიემართება. ბლოგ-პოსტის მიზნებისთვის, განსაკუთრებით მნიშვნელოვანია მე-6 და მე-7 პრინციპების განხილვა. მე-6 პრინციპის თანახმად, რომელიც გადაწყვეტილების მიღების პასუხისმგებლობის დელეგირების დაუშვებლობას შეეხება,  „არბიტრმა არ უნდა გადასცეს თავისი პირადი მანდატის არცერთი ნაწილი ხელოვნური ინტელექტის ინსტრუმენტს…არბიტრების მიერ ხელოვნური ინტელექტის ინსტრუმენტების გამოყენება არ უნდა ანაცვლებდეს მათ მიერ ფაქტების, კანონისა და მტკიცებულებების დამოუკიდებლად ანალიზს.“ ხოლო მე-7 პრინციპი სათანადო პროცესის პრინციპის პატივისცემას ავალდებულებს არბიტრებს და ადგენს, რომ „არბიტრი არ უნდა დაეყრდნოს ხელოვნური ინტელექტის მიერ გენერირებულ ინფორმაციას მხარეებისთვის წინასწარ ინფორმაციის გამჟღავნებისა და მხარეებისთვის მასზე კომენტარის გაკეთების უფლების მიცემის გარეშე. იმ შემთხვევაში, თუ ხელოვნური ინტელექტის ინსტრუმენტს არ შეუძლია წყაროების მითითება, რომელთა დამოუკიდებლად დადასტურება შესაძლებელია, არბიტრმა არ უნდა ჩათვალოს, რომ ასეთი წყაროები არსებობს ან ზუსტად არის დახასიათებული ხელოვნური ინტელექტის ინსტრუმენტით.“

      2025 წელს “CIArb”-ის სახელმძღვანელო პრინციპებიც გამოქვეყნდა.[xvi] სახელმძღვანელოს მე-4 ნაწილი ეხება უშუალოდ არბიტრების მიერ ხელოვნური ინტელექტის გამოყენებას და მოიცავს: მე-8 მუხლს, რომელიც მიემართება არბიტრების მიერ ხელოვნური ინტელექტის გამოყენების დისკრეციას და მე-9 მუხლს, არბიტრების მიერ ხელოვნური ინტელექტის გამოყენების გამჭვირვალობას.

     მე-8 მუხლის პირველ და მეორე ნაწილებში[xvii] აღნიშნულია, რომ არბიტრებს შეუძლიათ განიხილონ ხელოვნური ინტელექტის ინსტრუმენტების გამოყენება არბიტრაჟის პროცესის,მათ შორის როგორც სამართალწარმოების ეფექტურობის, ასევე არბიტრის მიერ გადაწყვეტილების მიღების ხარისხის გასაუმჯობესებლად,მაგრამ მათ „არ უნდა დაუთმონ გადაწყვეტილების მიღების უფლებამოსილება ხელოვნურ ინტელექტს“ და „უნდა მოერიდონ ხელოვნური ინტელექტის ინსტრუმენტებისთვის რაიმე დავალების დელეგირებას…თუ ასეთმა გამოყენებამ შეიძლება გავლენა მოახდინოს პროცედურულ ან არსებით გადაწყვეტილებებზე“.
     ამავე მუხლის მე-3 პუნქტი[xviii] ახსენებს არბიტრებს, რომ კრიტიკულად გადაამოწმონ ხელოვნური ინტელექტის საშუალებით მიღებული ინფორმაციის სიზუსტე და სისწორე, ამავდროულად შეინარჩუნონ ობიექტურობა.
მე-8 მუხლის მე-4[xix] ნაწილი ითვალისწინებს, რომ არბიტრებს ეკისრებათ პასუხისმგებლობა გადაწყვეტილების ყველა და ნებისმიერ ასპექტზე, მიუხედავად იმისა, გამოიყენება თუ არა ხელოვნური ინტელექტი გადაწყვეტილების მიღების პროცესში.

   ბოლოს, მე-9 მუხლი[xx] მოუწოდებს არბიტრებს, მხარეებთან კონსულტირების გზით, ასევე ტრიბუნალის სხვა არბიტრებთან შეათანხმონ ხელოვნური ინტელექტის ინსტრუმენტების გამოყენება საარბიტრაჟო წარმოების მთელი მსვლელობის განმავლობაში.

                                                                    დასკვნა


არბიტრაჟის არსიდან გამომდინარე, თვითონ არბიტრაჟის საქმისწარმოებაც ვერ დაიწყება, თუ არ არსებობს ამაზე მხარეთა ნების თანხვედრა. სწორედ ამიტომაა მნიშვნელოვანი ერთი მხრივ მხარეთა და მათ წარმომადგენელთა, მეორე მხრივ კი თვითონ არბიტრების ინფორმირება ამ რეკომენდაციების შესახებ, რათა გაითვალისწინონ ხელოვნური ინტელექტის ინოვაციურობის თანმდევი საფრთხეებიც და საარბიტრაჟო შეთანხმებაში გააკეთონ შესაბამისი დათქმები. ეს უკანასკნელი მნიშვნელოვანია, რათა ვაკუუმში მოქცეული არ დარჩეს საკითხი, თუ ვის უნდა დაეკისროს პასუხისმგებლობა ხელოვნური ინტელექტის მიერ მიღებულ დაუსაბუთებელ, ან ზიანის მომტან გადაწყვეტილებაზე.

ავტორი: ლოლიტა მჭედლური

ბიბლიოგრაფია:


[i] Ross, P. and Maynard, K., Towards A 4th Industrial Revolution, Intelligent Buildings International, Vol. 13, No.   3, Informa UK Limited, trading as Taylor & Francis Group (2021), pp 159-161.

[ii] “Encyclopedia: Definition of: Amara’s law”PC Magazine. Retrieved 18 February 2015.

ინგლისური ტექსტი –  „We tend to overestimate the effect of a technology in the short run and underestimate the effect in the long run.“ 

[iii] Kreindler R., Wolff R., Rieder M.S., Commercial Arbitration in Germany, Oxford University

Press, Oxford, 2016, 16.

[iv] Queen Mary University of London & White & Case. (2025). 2025 International Arbitration Survey: Adapting Arbitration to a Changing World.

[v] იქვე. დამატებით იხ.  Magal, M. / Limond, K./Calthrop A., Artificial Intelligence in Arbitration: Evidentiary Issues and Prospects, 12 October 2023, https://globalarbitrationreview.com/guide/the-guide-evidence-in-international-arbitration/2nd-edition/article/artificial-intelligence-in-arbitration-evidentiary-issues-and-prospects.

[vi] ცერცვაძე გ., საერთაშორისო საარბიტრაჟო განხილვის წინაპირობები (შედარებითი ანალიზი), სადისერტაციო ნაშრომი, 2008, 22.

[vii] https://uncitral.un.org/en/texts/arbitration/modellaw/commercial_arbitration

[viii] United Nations. (1958). Convention on the Recognition and Enforcement of Foreign Arbitral Awards (New York Convention). https://uncitral.un.org/en/texts/arbitration/ conventions/foreign_arbitral_awards

[ix] ცერცვაძე გ., საერთაშორისო საარბიტრაჟო განხილვის წინაპირობები (შედარებითი ანალიზი), სადისერტაციო ნაშრომი, 2008.

[x] van der Meulen, A., Purice, M., & Bianchi Ferran, C. (n.d.). UNCITRAL Working Group III finalises Draft Code of Conduct for Arbitrators in International Investment Disputes. Freshfields Bruckhaus Deringer Risk & Compliance. Retrieved May 25, 2025. <https:// riskandcompliance.freshfields.com/post/102iews/uncitral-working-group-iii-finalisesdraft-codeof-conduct-for-arbitratorsin-int.>

[xi] Esports Legal News. (2025, May 16). LaPaglia v. Valve: Arbitrator Accused of Outsourcing Decision to ChatGPT. https://esportslegal.news/2025/05/16/lapaglia-v-valve-chatgpt/

[xii] გაბისონია, ზ., ხელოვნური ინტელექტის ეროვნული სტრატეგია საქართველოსთვის, შედარებითი სამართლის ქართულ-გერმანული ჟურნალი, 8/2021, 24.

[xiii] იქვე.

[xiv] <https://www.acerislaw.com/wp-content/uploads/2025/04/LaPaglia-v.-Valve-Corp.pdf>

[xv] Silicon Valley Arbitration & Mediation Center (SVAMC). (2024). SVAMC AI Guidelines (First Edition). https://svamc.org/wp- content/uploads/SVAMC-AI-Guidelines-First-Edition.pdf

[xvi] Chartered Institute of Arbitrators (CIArb). (2025). Guideline on the Use of Artificial Intelligence in Arbitration.

[xvii] იქვე, 8.1 და 8.2 მუხლი

[xviii] იქვე, 8.3 მუხლი

[xix] იქვე, 8.4 მუხლი

[xx] იქვე, მე-9 მუხლი.

Leave a Reply

Leave a Reply

Your email address will not be published. Required fields are marked *