Trong bối cảnh việc ứng dụng Trí tuệ Nhân tạo (AI) và Học máy (ML) trong doanh nghiệp ngày càng phát triển, thì tầm quan trọng của việc úng dựng chúng một cách có trách nhiệm với doanh nghiệp cũng như xã hội cũng tăng lên. Một thách thức đối với nhiều người là việc nói về AI có trách nhiệm có thể dễ hơn là đưa nó vào thực tế. Nếu bạn quan tâm đến việc tìm hiểu cách vận hành AI có trách nhiệm trong tổ chức của mình, bài viết này là dành cho bạn.
Nhiều người trong chúng ta đã tương tác hàng ngày với trí tuệ nhân tạo (AI), từ những dự đoán về giao thông và thời tiết, cho đến các đề xuất chương trình TV mà bạn có thể muốn xem tiếp.
Khi AI, đặc biệt là AI tạo sinh, trở nên phổ biến hơn, nhiều công nghệ chưa được hỗ trợ bởi AI có thể bắt đầu trở nên không phù hợp. Và công nghệ mạnh mẽ, có tầm ảnh hưởng sâu rộng như vậy cũng đặt ra những câu hỏi mạnh mẽ không kém về sự phát triển và cách sử dụng của nó.
Trong lịch sử, AI không dễ tiếp cận với những người bình thường. Đại đa số những người được đào tạo và có khả năng phát triển AI là các kỹ sư chuyên ngành, những người khan hiếm về số lượng và đắt đỏ. Nhưng các rào cản gia nhập đang được hạ thấp, cho phép nhiều người hơn xây dựng AI, ngay cả những người không có chuyên môn về AI.
Giờ đây, các hệ thống AI đang cho phép máy tính nhìn, hiểu và tương tác với thế giới theo những cách không thể tưởng tượng được chỉ một thập kỷ trước. Và các hệ thống này đang phát triển với tốc độ phi thường. Theo báo cáo chỉ số AI năm 2019 của Đại học Stanford, trước năm 2012, kết quả AI bám sát Định luật Moore, với sức mạnh tính toán tăng gấp đôi cứ sau hai năm. Báo cáo cho biết, kể từ năm 2012, sức mạnh tính toán đã tăng gấp đôi khoảng 3,5 tháng một lần. Để dễ hình dung, trong suốt thời gian này, các công nghệ AI thị giác chỉ trở nên chính xác và mạnh mẽ hơn. Ví dụ, tỷ lệ lỗi của ImageNet, một tập dữ liệu phân loại hình ảnh, đã giảm đáng kể. Năm 2011, tỷ lệ lỗi là 26%. Tỷ lệ lỗi của thử thách nhận dạng hình ảnh quy mô lớn ImageNet hàng năm đã giảm đáng kể. Đến năm 2020, con số đó là 2%. Để tham khảo, tỷ lệ lỗi của con người khi thực hiện cùng một nhiệm vụ là 5%.
Tuy nhiên, bất chấp những tiến bộ đáng kể này, AI không phải là không thể sai lầm. Phát triển AI có trách nhiệm đòi hỏi sự hiểu biết về các vấn đề, hạn chế hoặc hậu quả không mong muốn có thể xảy ra. Công nghệ là sự phản ánh những gì tồn tại trong xã hội, vì vậy nếu không có những thực hành tốt, AI có thể lặp lại các vấn đề hoặc thành kiến hiện có và khuếch đại chúng.
Nhưng không có định nghĩa phổ quát về "AI có trách nhiệm", cũng không có một danh sách kiểm tra hoặc công thức đơn giản nào xác định cách các thực hành AI có trách nhiệm nên được thực hiện. Thay vào đó, các tổ chức đang phát triển các nguyên tắc AI của riêng họ, phản ánh sứ mệnh và giá trị của họ. Mặc dù các nguyên tắc này là duy nhất đối với mỗi tổ chức, nhưng nếu bạn tìm kiếm các chủ đề chung, bạn sẽ tìm thấy một tập hợp các ý tưởng nhất quán về tính minh bạch, công bằng, trách nhiệm giải trình và quyền riêng tư.
Có một quan niệm sai lầm phổ biến với trí tuệ nhân tạo rằng máy móc đóng vai trò ra quyết định trung tâm. Trên thực tế, chính con người là người thiết kế và xây dựng những cỗ máy này và quyết định cách chúng được sử dụng. Con người tham gia vào mọi khía cạnh của phát triển AI. Họ thu thập hoặc tạo dữ liệu mà mô hình được đào tạo. Họ kiểm soát việc triển khai AI và cách nó được áp dụng trong một bối cảnh nhất định. Về cơ bản, các quyết định của con người được đan xen trong suốt các sản phẩm công nghệ của chúng ta. Và mỗi khi một người đưa ra quyết định, họ thực sự đang đưa ra lựa chọn dựa trên các giá trị của mình. Cho dù đó là quyết định sử dụng AI tạo sinh để giải quyết vấn đề, trái ngược với các phương pháp khác, hoặc bất cứ nơi nào trong vòng đời học máy, họ đều đưa ra tập hợp các giá trị của riêng mình. Điều này có nghĩa là mỗi điểm quyết định đều yêu cầu xem xét và đánh giá để đảm bảo rằng các lựa chọn đã được thực hiện một cách có trách nhiệm từ khái niệm đến triển khai và bảo trì.
Hãy cùng khám phá 7 điểm nổi bật trong báo cáo của Đơn vị Tình báo Kinh tế (Economist Intelligence Unit – EIU) mang tên “Đi trước đón đầu: Lợi ích kinh doanh của AI có trách nhiệm”.
Điểm nổi bật đầu tiên từ báo cáo của EIU khẳng định rằng việc kết hợp các thực hành AI có trách nhiệm là một khoản đầu tư thông minh trong phát triển sản phẩm. 97% số người được hỏi trong khảo sát của EIU đồng ý rằng đánh giá AI đạo đức rất quan trọng đối với đổi mới sản phẩm.
Các đánh giá đạo đức xem xét các cơ hội và tác hại tiềm tàng liên quan đến công nghệ mới để điều chỉnh sản phẩm tốt hơn với thiết kế AI có trách nhiệm. Những đánh giá này xem xét kỹ lưỡng các bộ dữ liệu, hiệu suất mô hình trên các nhóm nhỏ và cân nhắc tác động của cả kết quả dự định và không dự định.
Khi các tổ chức không nỗ lực kết hợp các thực hành AI có trách nhiệm, họ tự đặt mình vào nhiều rủi ro, bao gồm trì hoãn ra mắt sản phẩm, ngừng công việc và trong một số trường hợp, rút các sản phẩm đã có mặt trên thị trường. Bằng cách kết hợp các thực hành AI có trách nhiệm từ sớm và tạo không gian để xác định và giảm thiểu tác hại, các tổ chức có thể giảm chi phí phát triển thông qua việc giảm các vi phạm đạo đức về sau.
Theo Khảo sát Công nghệ Nơi làm việc của Quyết định CNTT năm 2019 của CCS Insight, tin tưởng vào hệ thống AI vẫn là rào cản lớn nhất đối với việc áp dụng AI trong các doanh nghiệp. Và trong một nghiên cứu của Capgemini, 90% các tổ chức báo cáo gặp phải các vấn đề đạo đức. Trong số các công ty đó, 40% đã từ bỏ dự án AI thay vì giải quyết những vấn đề đó. Trong nhiều trường hợp được báo cáo, AI đã không thoát khỏi phòng thí nghiệm và đi vào sản xuất vì những rủi ro thực tế cố hữu trong công nghệ. Do đó, hợp lý khi các công ty đã đạt được quy mô với AI có khả năng được hướng dẫn bởi AI có trách nhiệm cao hơn 1,7 lần.
Nếu được triển khai đúng cách, AI có trách nhiệm sẽ làm cho sản phẩm tốt hơn bằng cách khám phá và nỗ lực giảm thiểu tác hại mà sự thiên vị không công bằng có thể gây ra, cải thiện tính minh bạch và tăng cường bảo mật. Đây đều là những thành phần chính để thúc đẩy niềm tin với các bên liên quan của sản phẩm, giúp tăng cả giá trị của sản phẩm đối với người dùng và lợi thế cạnh tranh của bạn.
Điểm nổi bật thứ hai từ báo cáo của EIU cho biết các tổ chức tiên phong về AI có trách nhiệm thu hút và giữ chân nhân tài hàng đầu. Những người lao động giỏi nhất thế giới hiện nay tìm kiếm nhiều hơn một công việc năng động và mức lương tốt. Khi nhu cầu về nhân tài công nghệ ngày càng cạnh tranh và đắt đỏ, nghiên cứu cho thấy việc có được những nhân viên phù hợp là đáng giá. Một nghiên cứu cho thấy những người lao động hàng đầu năng suất hơn trung bình 400% so với những cá nhân ít kỹ năng hơn, và năng suất hơn 800% trong các nghề có độ phức tạp cao, chẳng hạn như phát triển phần mềm.
Nghiên cứu cũng chỉ ra rằng việc giữ chân nhân tài hàng đầu là rất quan trọng khi bạn đã có họ. Các tổ chức có thể tốn khoảng 30.000 USD để thay thế nhân viên công nghệ cấp đầu vào và lên đến 312.000 USD khi một chuyên gia hoặc lãnh đạo công nghệ rời đi. Vậy làm thế nào để giữ chân những nhân tài xuất sắc?
Khảo sát Thế hệ Thiên niên kỷ Toàn cầu của Deloitte cho thấy người lao động có lòng trung thành mạnh mẽ hơn với những nhà tuyển dụng giải quyết các vấn đề gây tiếng vang với họ, đặc biệt là các vấn đề đạo đức. Các tổ chức xây dựng các cam kết chung và thực hành AI có trách nhiệm có vị trí tốt nhất để xây dựng lòng tin và sự gắn kết với nhân viên, điều này giúp củng cố và giữ chân nhân tài hàng đầu.
Điểm nổi bật thứ ba của báo cáo EIU là tầm quan trọng của việc bảo vệ lời hứa của dữ liệu. Theo khảo sát điều hành của EIU, các mối lo ngại về an ninh mạng và quyền riêng tư dữ liệu là những trở ngại lớn nhất đối với việc áp dụng AI. Các tổ chức cần suy nghĩ rất cẩn thận về cách họ thu thập, sử dụng và bảo vệ dữ liệu.
Ngày nay, hơn 90% người tiêu dùng sẽ không mua hàng từ một công ty nếu họ lo ngại về cách dữ liệu của họ sẽ được sử dụng. Các vụ vi phạm dữ liệu rất tốn kém đối với một doanh nghiệp. IBM và Viện Ponemon báo cáo rằng, trên toàn cầu, vụ vi phạm dữ liệu trung bình liên quan đến 25.575 hồ sơ và chi phí trung bình là 3,92 triệu USD, với Hoa Kỳ có chi phí trung bình cao nhất, ở mức 8,19 triệu USD.
Nghiên cứu cũng cho thấy mất mát kinh doanh là khía cạnh gây thiệt hại tài chính lớn nhất của một vụ vi phạm dữ liệu, chiếm 36% tổng chi phí trung bình. Người tiêu dùng cũng có nhiều khả năng đổ lỗi cho các công ty về các vụ vi phạm dữ liệu hơn là chính những kẻ tấn công, điều này làm nổi bật tác động của việc bảo vệ dữ liệu đối với sự gắn kết của khách hàng với các công ty. Khách hàng doanh nghiệp cũng cần tin tưởng rằng bản thân công ty là một đơn vị lưu trữ đáng tin cậy dữ liệu của họ.
Tại Google, chúng tôi biết rằng quyền riêng tư đóng một vai trò quan trọng trong việc giành được và duy trì lòng tin của khách hàng. Với chính sách quyền riêng tư công khai, chúng tôi muốn làm rõ cách chúng tôi chủ động bảo vệ dữ liệu của khách hàng. Và khi một tổ chức có thể được tin cậy với dữ liệu, điều đó có thể dẫn đến các bộ dữ liệu lớn hơn, đa dạng hơn, từ đó sẽ cải thiện kết quả AI.
Nghiên cứu của Cisco báo cáo rằng cứ mỗi 1 USD đầu tư vào việc tăng cường quyền riêng tư dữ liệu, công ty trung bình sẽ thu được 2,70 USD. Tất cả những phát hiện này là những chỉ số rõ ràng cho thấy việc sử dụng các thực hành AI có trách nhiệm để giải quyết các mối lo ngại về dữ liệu sẽ dẫn đến việc áp dụng và giá trị kinh doanh của công nghệ AI lớn hơn.
Điểm nổi bật thứ tư của báo cáo EIU là tầm quan trọng của việc chuẩn bị trước các quy định về AI. Khi công nghệ AI tiến bộ, thì các lời kêu gọi toàn cầu về quy định của nó từ xã hội rộng lớn hơn, cộng đồng doanh nghiệp và từ chính ngành công nghệ cũng tăng lên. Các chính phủ đã nhận ra tầm quan trọng của các quy định AI và đã bắt đầu nỗ lực thực hiện chúng.
Ví dụ, để đảm bảo sự phát triển AI lấy con người làm trung tâm và có đạo đức ở Châu Âu, các thành viên của Nghị viện Châu Âu đã thông qua các quy tắc mới về tính minh bạch và quản lý rủi ro cho các hệ thống AI. Sau khi được phê duyệt, chúng sẽ là những quy tắc đầu tiên trên thế giới về trí tuệ nhân tạo. Đây là một khởi đầu tốt. Tuy nhiên, vẫn cần một lượng thời gian và nỗ lực đáng kể để có các quy định AI mạnh mẽ và trưởng thành trên toàn cầu.
Dữ liệu khảo sát điều hành của EIU cho thấy 92% giám đốc điều hành doanh nghiệp Hoa Kỳ từ năm lĩnh vực được khảo sát tin rằng các công ty công nghệ phải chủ động để đảm bảo các thực hành AI có trách nhiệm trong trường hợp không có quy định AI chính thức. Các tổ chức phát triển AI có trách nhiệm có thể mong đợi trải nghiệm một lợi thế đáng kể khi các quy định mới có hiệu lực. Điều này có thể có nghĩa là giảm rủi ro không tuân thủ khi quy định có hiệu lực, hoặc thậm chí có thể đóng góp một cách hiệu quả vào các cuộc trò chuyện về quy định để đảm bảo rằng nó được điều chỉnh phù hợp.
Thách thức là phát triển các quy định theo cách được điều chỉnh một cách cân xứng để giảm thiểu rủi ro và thúc đẩy các ứng dụng AI đáng tin cậy và đáng tin cậy trong khi vẫn cho phép đổi mới và lời hứa của AI vì lợi ích xã hội. Lấy Quy định chung về bảo vệ dữ liệu, hoặc GDPR, ở Liên minh Châu Âu làm ví dụ. Khi nó được thông qua lần đầu tiên, chỉ 31% doanh nghiệp tin rằng tổ chức của họ đã tuân thủ GDPR trước khi luật được ban hành. Chi phí không tuân thủ GDPR được phát hiện là vượt xa chi phí tuân thủ gấp 2,71 lần. Mặc dù các hình phạt theo quy định là một rủi ro nổi tiếng của việc không tuân thủ, nhưng chúng chỉ chiếm 13% tổng chi phí không tuân thủ, với sự gián đoạn hoạt động kinh doanh gây ra 34%, tiếp theo là mất năng suất và mất doanh thu. Sự phản ánh về kinh nghiệm đó đã thúc đẩy nhiều tổ chức bắt đầu lập kế hoạch trước các quy định về AI.
Điểm nổi bật thứ năm từ báo cáo của EIU cho biết AI có trách nhiệm có thể cải thiện tăng trưởng doanh thu. Đối với các nhà cung cấp AI, AI có trách nhiệm có thể dẫn đến một thị trường mục tiêu lớn hơn, lợi thế cạnh tranh và cải thiện sự gắn kết với khách hàng hiện có. Trong số các giám đốc điều hành được EIU khảo sát, 91% nói rằng các cân nhắc đạo đức được đưa vào quy trình yêu cầu đề xuất của công ty họ, và 91% cũng nói rằng họ sẽ sẵn lòng làm việc với một nhà cung cấp hơn nếu họ đưa ra hướng dẫn về việc sử dụng AI có trách nhiệm. Hơn nữa, 66% giám đốc điều hành nói rằng tổ chức của họ thực sự đã quyết định không làm việc với một nhà cung cấp AI do các mối lo ngại về đạo đức.
Có bằng chứng ngày càng tăng về mối quan hệ tích cực giữa hành vi đạo đức của một tổ chức và hiệu quả tài chính cốt lõi của nó. Ví dụ, các công ty đầu tư vào các biện pháp quản trị môi trường, xã hội và doanh nghiệp, hay ESG, hoạt động tốt hơn trên thị trường chứng khoán, trong khi dữ liệu gần đây cho thấy các Công ty Đạo đức nhất Thế giới đã vượt trội so với chỉ số Vốn hóa lớn 14,4% trong 5 năm.
Hành vi của khách hàng cũng bị ảnh hưởng bởi đạo đức. Một khảo sát của Nielsen với 30.000 người tiêu dùng ở 60 quốc gia cho thấy 66% số người được hỏi sẵn sàng trả nhiều tiền hơn cho hàng hóa và dịch vụ bền vững, có trách nhiệm xã hội và được thiết kế theo đạo đức.
Tiếp theo, báo cáo của EIU nhấn mạnh rằng AI có trách nhiệm đang thúc đẩy các quan hệ đối tác. Các nhà đầu tư ngày càng tìm cách điều chỉnh danh mục đầu tư của họ theo các giá trị cá nhân, thể hiện qua sự quan tâm đến đầu tư bền vững, dài hạn. Mối quan hệ với các bên liên quan này có thể ảnh hưởng đến chiến lược và hiệu quả tài chính của một tổ chức.
Định nghĩa rộng nhất của đầu tư bền vững bao gồm bất kỳ khoản đầu tư nào sàng lọc các nhà đầu tư không lành mạnh hoặc rõ ràng tính đến các yếu tố và rủi ro ESG, chẳng hạn như lượng khí thải nhà kính, các sáng kiến đa dạng và cấu trúc trả lương. Mặc dù các tiêu chí đánh giá ESG thường không bao gồm AI có trách nhiệm, nhưng xu hướng đầu tư vào các công ty có trách nhiệm xã hội này cho thấy các quỹ sẽ được phân bổ lại cho các công ty ưu tiên AI có trách nhiệm.
Một công ty đầu tư của Vương quốc Anh, Hermes Investment Management, đã nêu rõ trong báo cáo năm 2019 của mình, “Kỳ vọng của nhà đầu tư về Trí tuệ nhân tạo và Quản trị dữ liệu có trách nhiệm,” rằng họ đánh giá các nhà đầu tư dựa trên một bộ nguyên tắc AI có trách nhiệm. Nghiên cứu gần đây hơn đã cho thấy xu hướng tương tự. Nghiên cứu của Forrester cho thấy các nhà đầu tư ngày càng quan tâm đến việc nuôi dưỡng các công ty khởi nghiệp AI có trách nhiệm. Năm 2013, có 8 triệu USD tài trợ cho các công ty khởi nghiệp AI có trách nhiệm, và con số đó đã tăng lên 335 triệu USD vào năm 2020. Thậm chí còn có mức tăng 93% về tài trợ từ năm 2018 đến năm 2019.
Điểm nổi bật cuối cùng từ báo cáo của EIU liên quan đến duy trì niềm tin và thương hiệu mạnh mẽ. Cũng như việc thiếu các thực hành AI có trách nhiệm có thể làm suy yếu lòng tin và lòng trung thành của khách hàng, bằng chứng xác nhận rằng các tổ chức đi đầu về AI có trách nhiệm có thể gặt hái những phần thưởng liên quan đến dư luận, lòng tin và thương hiệu. Đối với các công ty công nghệ, mối liên hệ giữa lòng tin và thương hiệu chưa bao giờ mạnh mẽ hơn.
Các chuyên gia nói rằng nếu không có sự giám sát chặt chẽ đối với AI, các công ty đang phát triển hoặc triển khai AI đang tự đặt mình vào các rủi ro, bao gồm dư luận bất lợi, xói mòn thương hiệu và các chu kỳ truyền thông tiêu cực. Và sự xói mòn thương hiệu không dừng lại ở cánh cửa của công ty đã gây ra sai lầm. Các tổ chức có thể giảm thiểu các loại rủi ro về lòng tin và thương hiệu này thông qua việc thực hiện các thực hành AI có trách nhiệm, có tiềm năng thúc đẩy các tổ chức và thương hiệu mà chúng liên kết.
Như báo cáo của Đơn vị Tình báo Kinh tế nhấn mạnh, AI có trách nhiệm mang lại giá trị không thể phủ nhận cho các công ty, cùng với một mệnh lệnh đạo đức rõ ràng để chấp nhận nó. Mặc dù không thể xác định toàn bộ các kết quả tiêu cực có thể xảy ra do các thực hành AI vô trách nhiệm, nhưng các công ty có cơ hội duy nhất để đưa ra các quyết định ngay hôm nay nhằm ngăn chặn những kết quả này trong tương lai.
Chúng tôi hy vọng video này sẽ cung cấp dữ liệu và các điểm thảo luận để bạn sử dụng khi tương tác với các bên liên quan trong doanh nghiệp và khách hàng của chính bạn. Ý định của chúng tôi là nó sẽ phục vụ như một phương tiện để thúc đẩy các thực hành AI có trách nhiệm và trang bị cho bạn các công cụ để phát triển trường hợp kinh doanh của riêng bạn để đầu tư.
Nhiều người trong chúng ta dựa vào sự đổi mới công nghệ để có cuộc sống hạnh phúc và khỏe mạnh. Cho dù đó là việc tìm kiếm con đường tốt nhất để về nhà hay tìm thông tin chính xác khi chúng ta cảm thấy không khỏe. Cơ hội đổi mới là rất lớn, nhưng nó đi kèm với trách nhiệm sâu sắc của các nhà cung cấp công nghệ để thực hiện đúng đắn.
Có một mối lo ngại ngày càng tăng xung quanh một số tác động không mong muốn hoặc không chủ ý của đổi mới AI. Chúng bao gồm các mối lo ngại về sự công bằng của học máy và sự duy trì các thành kiến lịch sử ở quy mô lớn, tương lai của công việc và tình trạng thất nghiệp do AI gây ra, và những lo ngại về trách nhiệm giải trình và trách nhiệm đối với các quyết định do AI đưa ra. Bởi vì có tiềm năng tác động đến nhiều lĩnh vực của xã hội, chưa kể đến cuộc sống hàng ngày của con người, điều quan trọng là phải phát triển các công nghệ này với đạo đức trong tâm trí.
AI có trách nhiệm không chỉ tập trung vào các trường hợp sử dụng gây tranh cãi rõ ràng. Nếu không có các thực hành AI có trách nhiệm, ngay cả những trường hợp sử dụng AI tưởng chừng vô hại, hoặc những trường hợp có ý định tốt, vẫn có thể gây ra các vấn đề đạo đức hoặc kết quả không mong muốn, hoặc không mang lại lợi ích như mong đợi. Đạo đức và trách nhiệm là quan trọng, không chỉ vì chúng đại diện cho điều đúng đắn nên làm, mà còn vì chúng có thể định hướng thiết kế AI để mang lại lợi ích hơn cho cuộc sống của con người.
Chúng tôi đã học được rằng việc xây dựng trách nhiệm vào bất kỳ triển khai AI nào sẽ tạo ra các mô hình tốt hơn và xây dựng lòng tin với khách hàng của chúng tôi và khách hàng của khách hàng chúng tôi. Nếu bất kỳ lúc nào niềm tin đó bị phá vỡ, chúng tôi có nguy cơ các triển khai AI bị đình trệ, không thành công, hoặc tệ nhất là gây hại cho các bên liên quan mà các sản phẩm đó ảnh hưởng. Tất cả điều này phù hợp với niềm tin của chúng tôi rằng AI có trách nhiệm bằng AI thành công.
Chúng tôi đưa ra các quyết định về sản phẩm và kinh doanh xung quanh AI thông qua một loạt các đánh giá và xem xét. Những điều này tạo ra sự chặt chẽ và nhất quán trong cách tiếp cận của chúng tôi trên các lĩnh vực sản phẩm và khu vực địa lý. Những đánh giá và xem xét này bắt đầu bằng việc đảm bảo rằng bất kỳ dự án nào đều phù hợp với Nguyên tắc AI của chúng tôi. Trong quá trình hợp tác này, bạn sẽ thấy cách chúng tôi tiếp cận việc xây dựng quy trình AI có trách nhiệm của mìn.
Đôi khi, bạn có thể nghĩ, "À, điều đó dễ dàng với bạn, với nguồn lực đáng kể và một đội ngũ lớn. Chúng tôi chỉ có một vài người, và nguồn lực của chúng tôi bị hạn chế." Bạn cũng có thể cảm thấy bị choáng ngợp hoặc sợ hãi bởi nhu cầu phải giải quyết các vấn đề triết học và thực tiễn gai góc, mới mẻ. Và đây là lúc chúng tôi đảm bảo với bạn rằng, bất kể quy mô tổ chức của bạn là bao nhiêu, chúng tôi sẽ hướng dẫn bạn.
AI có trách nhiệm là một thực hành lặp đi lặp lại. Nó đòi hỏi sự cống hiến, kỷ luật và sự sẵn sàng học hỏi và điều chỉnh theo thời gian. Sự thật là nó không dễ dàng, nhưng điều quan trọng là phải thực hiện đúng, vì vậy việc bắt đầu hành trình, ngay cả với những bước nhỏ, là chìa khóa. Dù bạn đã bắt đầu hành trình AI có trách nhiệm hay chỉ mới bắt đầu, việc dành thời gian thường xuyên, chỉ đơn giản là suy nghĩ về các giá trị công ty của bạn và tác động bạn muốn tạo ra với các sản phẩm của mình, sẽ có ý nghĩa lớn trong việc xây dựng AI có trách nhiệm.
Cuối cùng, trước khi đi sâu hơn, chúng tôi muốn làm rõ một điều: Chúng tôi biết rằng chúng tôi chỉ đại diện cho một tiếng nói trong cộng đồng người dùng và nhà phát triển AI. Chúng tôi tiếp cận việc phát triển và triển khai công nghệ mạnh mẽ này với sự thừa nhận rằng chúng tôi không và không thể biết và hiểu tất cả những gì chúng tôi cần; chúng tôi sẽ chỉ tốt nhất khi chúng ta cùng nhau giải quyết những thách thức này. Thành phần thực sự để đảm bảo AI được phát triển và sử dụng một cách có trách nhiệm là cộng đồng.
Chúng tôi hy vọng rằng đây sẽ là điểm khởi đầu để chúng ta cùng nhau hợp tác về chủ đề quan trọng này. Mặc dù Nguyên tắc AI giúp một nhóm có chung cam kết, không phải ai cũng sẽ đồng ý với mọi quyết định về cách các sản phẩm nên được thiết kế một cách có trách nhiệm. Đây là lý do tại sao điều quan trọng là phải phát triển các quy trình mạnh mẽ mà mọi người có thể tin tưởng, vì vậy ngay cả khi họ không đồng ý với quyết định cuối cùng, họ vẫn tin tưởng vào quy trình đã dẫn đến quyết định đó.
Tóm lại và theo kinh nghiệm của chúng tôi, một nền văn hóa dựa trên hệ thống giá trị chung chấp nhận sự tranh luận lành mạnh phải tồn tại để hướng dẫn sự phát triển của AI có trách nhiệm. Chỉ cần hiểu nội dung quan trọng trong bài viết này, chính bạn đang đóng góp vào nền văn hóa bằng cách thúc đẩy thực hành phát triển AI có trách nhiệm khi AI tiếp tục trải nghiệm sự chấp nhận và đổi mới đáng kinh ngạc.