CỘNG ĐOÀN CHÚA KITÔ PHỤC SINH

TRUNG TÂM ĐỨC BÀ PHÙ HỘ CÁC GIÁO HỮU

7707 Murray Drive - Stockton, CA 95210

MỐI ĐE DỌA CỦA TRÍ KHÔN NHÂN TẠO

Đăng vào: 07:04 NGÀY 25/04/2020        Số lượt xem: 779

MỐI ĐE DỌA CỦA TRÍ KHÔN NHÂN TẠO

Các kỹ thuật được gọi là “trí tuệ nhân tạo” hoặc “AI” quan trọng hơn hầu hết mọi người có thể nhận ra. Tác động của chúng ít nhất sẽ bằng, và có thể cao hơn tác động của điện, máy tính và liên mạng. Hơn nữa, tác động của chúng sẽ ồ ạt và nhanh chóng, nhanh hơn so với những gì mà liên mạng đã mang lại trong ba mươi năm qua. Chẳng hạn, phần lớn nó sẽ rất kỳ diệu, như giúp người mù nhìn thấy và cho phép các xe cộ tự lái, nhưng kỹ thuật do AI tạo ra cũng có thể phá hoại công ăn việc làm, tăng khả năng cho việc giám sát toàn diện của nhà nước và gây ra những biến động xã hội chưa lường trước được. Chúng ta có ít thời gian cần để hiểu về kỹ thuật phát triển nhanh chóng này và thiết lập các nguyên tắc quản trị nó. Thuật ngữ “AI” được đặt ra bởi một nhà khoa học máy tính vào năm 1956. Đơn giản nhất, AI đề cập đến các kỹ thuật kết hợp dữ kiện và thuật toán để tạo ra một kết quả. Những kỹ thuật này có thể đơn giản như Bản đồ Google phân tích dữ kiện giao thông để cung cấp tuyến đường nhanh nhất, máy Alexa của Amazon “hiểu” câu hỏi “Mấy giờ rồi?” Và iPhone “nhận diện ” khuôn mặt của bạn làm mật khẩu cuối cùng.

Trên thế mạnh của AI là các ứng dụng như taxi tự lái của Waymo, hiện đang hoạt động ở Phoenix. Hệ thống máy tính tích hợp của Waymo sắp xếp dữ kiện cập nhật đến từng giây từ 29 camera cũng như cảm biến radar và LIDAR để đưa ra các quyết định có tiềm năng sinh tử, chưa kể đến việc giữ cho xe cộ đi đến đích. Vào tháng 10, Apple thông báo rằng iPhone 12 mới của họ có thể "nhìn" một cảnh tượng qua camera gắn trên xe (onboard camera) của họ và mô tả nó "nhìn thấy" thấy gì bằng ngôn ngữ tự nhiên – như, "Đây là một căn phòng với một chiếc ghế sofa và hai chiếc ghế".

Thí dụ về những đột phá bất ngờ, đáng chú ý của AI xuất hiện ít nhất hàng tháng. Vào tháng 12, Không quân Hoa Kỳ đã công bố chuyến bay thành công đầu tiên của U-2 với phi công phụ dựa trên AI, một phát triển có ý nghĩa sâu rộng đối với tương lai của không chiến. Vào tháng 11, dự án DeepMind AI của Google đã làm kinh ngạc thế giới y tế với AlphaFold, một công cụ dựa trên AI cung cấp các cách nhanh hơn nhiều để dự đoán các nếp gấp trong cấu trúc protein, một yếu tố chủ chốt trong nghiên cứu vắc-xin.

Nền tảng cho nhiều nếu không muốn nói tất cả những đột phá này là một loại AI được gọi là “học sâu” [deep learning] hoặc “mạng thần kinh” [neural networks], mà Geoffrey Hinton, một nhà khoa học nghiên cứu tại Google, đã nghiên cứu ra vào giữa thập niên 2000. Được kích hoạt bởi bộ xử lý máy vi tính cực kỳ mạnh mẽ và lưu trữ dữ kiện “cloud” hầu như không giới hạn, phương pháp "mạng thần kinh" này giúp AI có thể giải quyết các vấn đề trong thế giới thực theo những cách hợp túi tiền. Kai-Fu Lee, một trong những chuyên gia AI hàng đầu thế giới và là tác giả của cuốn sách bán chạy nhất AI Superpowers (Siêu cường AI) viết, “Trên thực tế, chúng ta đang chứng kiến việc áp dụng một bước đột phá căn bản — học sâu và các kỹ thuật liên quan — cho nhiều vấn đề khác nhau”.

Lee làm nổi bật sự phân biệt giữa AI ngày nay và thứ được gọi là “trí thông minh nhân tạo tổng quát” (AGI), vì AI ngày nay là một AI hoàn toàn tiên tiến có thể làm bất cứ điều gì con người có thể làm, chỉ tốt hơn mà thôi — có lẽ tốt hơn rất nhiều. AI của ngày nay hầu như đều được thiết kế để làm tốt một việc, bất kể đó là việc nhận diện và hái một quả dâu chín hay đánh bại đội vô địch thế giới ở Dota 2. Cả hai hệ thống AI đều không có khả năng làm bất cứ điều gì khác ngoài những gì nó được xây dựng để làm.

Ngược lại, một AGI siêu mạnh như HAL năm 2001: A Space Odyssey (cuộc phiêu lưu không gian) hay Samaritan trong loạt phim truyền hình CBS, Person of Interest, về lý thuyết có khả năng học hỏi và hành động theo những cách tránh thoát các giới hạn của AI ngày nay khi nó theo đuổi mục tiêu được lập trình và thậm chí bảo vệ chính nó. Cho đến nay, AGI là khoa học viễn tưởng [fiction]. Các chuyên gia hiện đang rất mơ hồ về thời điểm AGI có thể trở thành hiện thực [real] - trong một thập niên hoặc một thế kỷ nữa - và việc xuất hiện của AGI có thể có ý nghĩa gì: đỉnh cao văn minh hay sự kết thúc của nhân loại.

Suy đoán về tất cả những điều đó là điều hết sức đáng lưu ý, nhưng nó làm xao lãng một thách thức xã hội to lớn hiện có trước mắt chúng ta, đó là hiểu được những mối nguy hiểm mà AI ngày nay gây ra cho xã hội và cá nhân.

Vì AI sử dụng các thuật toán vừa không thấy vừa phổ biến, nó hoàn toàn khác với nhiều kỹ thuật khác — từ năng lượng hạt nhân tới chuyến bay thương mại, tới xe hơi hiện đại — với các mặt trái nguy hiểm của chúng được mọi người nhìn thấy trong thế giới vật lý. Các ứng dụng AI không những khó nhận biết về diễn trình thực thi và tác động của chúng; chúng dễ dàng thoát khỏi khuôn khổ pháp lý và đạo đức được chúng ta áp dụng cho phần lớn các mối nguy hiểm trong thế giới của chúng ta. Yêu cầu các nhà sản xuất xe hơi cài đặt dây an toàn và túi khí [airbags] như một phương tiện cứu mạng trực tiếp và rõ ràng là một chuyện; mà chuyện khác là xác định tác động hiện sinh của các hệ thống AI mà bạn vốn không thể quan sát trong lúc chúng hành động.

Như thường lệ trong Kỷ nguyên kỹ thuật số, các ứng dụng AI của khu vực công và tư đang đi trước khả năng xác định các hậu quả của chúng. Nhà khoa học máy tính Stuart Russell của Đại Học Berkeley, tác giả cuốn Human Compatible: Artificial Intelligence and the Problem of Control (Tương thích với Con người: Trí khôn Nhân tạo và Vấn đề Kiểm soát), nói rằng các kết quả của một hệ thống như vậy, các thuật toán tương tác với mạng xã hội, đã tạo ra một thảm họa AI trên bình diện văn minh mà không ai ngờ tới: sự phân cực gây hại cho xã hội. Trọng điểm của các thuật toán này là duy trì sự chú ý của người dùng, đặc biệt là để cổ vũ “các việc nhấp chuột qua các siêu nối kết với các trang mạng mình muốn” [click-throughs]. Điều này nghe có vẻ giống như một tình huống thông thường trong đó một nhà cung cấp hàng hóa thích ứng đối với nhu cầu và thị hiếu của khách hàng. Nhưng đó không phải là những gì thực sự xảy ra, Russell giải thích:

"Giải pháp đơn giản là trình bày các mục mà người dùng thích nhấp vào, phải không? Sai. Giải pháp là thay đổi ý thích của người dùng để chúng trở nên dễ đoán hơn. Một người dùng dễ đoán hơn có thể được cung cấp các mục mà họ có khả năng sẽ nhấp vào, do đó tạo ra nhiều doanh thu hơn. Những người có quan điểm chính trị cực đoan hơn có xu hướng dễ đoán họ sẽ nhấp vào mục nào hơn.... Giống như bất cứ thực thể hữu lý nào, thuật toán học cách sửa đổi trạng thái của môi trường của nó — trong trường hợp này là tâm trí của người dùng — để tối đa hóa phần thưởng của chính nó".

Nói cách khác, thay vì định hình sản phẩm theo nhu cầu của khách hàng, các thuật toán truyền thông xã hội thao túng đối tượng của họ. Khi diễn trình này tiếp diễn, những khuyến khích nhỏ có tác động lớn, làm thay đổi thị hiếu và sở thích trong việc tẩy não chậm chạp và xảo quyệt nhằm củng cố các thiên hướng “cực đoan”.

Russell cảnh cáo, “Hậu quả bao gồm... sự giải thể khế ước xã hội”. Nếu con người có thể bị thay đổi một cách ranh mãnh như vậy, nếu một hệ thống máy tính có thể thay đổi hành vi của họ mà họ không hề nhận ra, thì những giả định về sự lựa chọn hợp lý sẽ là cơ sở cho sự sụp đổ trật tự xã hội hiện đại. Ý tưởng cho rằng chúng ta tự ý thức được bản thân, là những người thủ diễn hợp lý đang tham gia vào một hệ thống dân chủ, phải bị nghi vấn, và với nó là những nguyên lý căn bản của trật tự chính trị cấp tiến.

Cho đến nay, hầu hết các thách thức chính trị đối với AI đều nằm trong đề mục “thiên kiến đối với AI”. Nhiều nhà quan sát đã chỉ ra ngày càng nhiều bằng chứng cho thấy một số hệ thống AI nhằm đánh giá các cá nhân đang cho thấy cùng những thành kiến y hệt, được nuôi dưỡng bởi những người có thành kiến. Nhiều điển hình đã liên tiếp xuất hiện trong việc tuyển dụng phần mềm, hệ thống dự đoán chính sách, dịch vụ giáo dục và tài chính, nhận diện khuôn mặt, v.v. Vấn đề thường phát xuất từ một tập dữ kiện không thỏa đáng, chẳng hạn như phần mềm cho điểm thấp cho một ứng viên xin việc có sự chú ý bị lên xuống trên màn hình trong lúc phỏng vấn — một tác phong bất ngờ của một người mù hoặc một người bị bất cứ khuyết tật nào khác.

Liên hiệp châu Âu đã giải quyết vấn đề này trong Quy định chung về bảo vệ dữ kiện (GDPR) năm 2016 khá mạnh mẽ của họ. GDPR được tiếng nhất về việc có những biện pháp bảo vệ dữ kiện nghiêm ngặt, nhưng nó cũng có một số dự liệu để bảo vệ công dân Liên hiệp châu Âu chống lại các quyết định do máy móc điều khiển. Điều 22 của Quy định này nói rằng người ta có thể từ chối các quyết định hoặc nhận xét mà AI có thể đưa ra về họ:

"Chủ thể dữ kiện [một người] có quyền không phải chịu một quyết định chỉ dựa trên diễn trình xử lý tự động, bao gồm cả việc lập hồ sơ, tạo ra các hậu quả pháp lý liên quan đến họ hoặc ảnh hưởng cũng đáng kể như thế đến họ".

Ngoài ra, Qui định này cũng thiết lập một điều giống như “quyền được giải thích”, điều mà nó mô tả như là “thông tin có ý nghĩa về luận lý liên hệ, cũng như tầm quan trọng và các hậu quả được dự kiến của diễn trình xử lý như vậy đối với chủ thể dữ kiện". Nói cách khác, nếu AI xác định rằng một người không phù hợp với công việc hoặc khoản vay, người đó có thể yêu cầu một lời giải thích. Có lẽ còn quá sớm để cho biết những biện pháp bảo vệ này sẽ diễn ra như thế nào trong thực tế ở Liên hiệp Châu Âu, nhưng việc được thấy chúng trong một văn bản pháp lý quan trọng nhằm quản lý thế giới kỹ thuật số là điều đáng khích lệ.

Tất nhiên, sẽ có sự phản đối mạnh mẽ đối với loại quy định đó ở Hoa Kỳ. Các nhà biện hộ sẽ lập luận rằng dữ kiện tốt hơn sẽ chữa được sự thiên vị, trong khi một AI “có thể giải thích được” hoặc “có thể thanh lý được” hơn sẽ loại bỏ hiệu quả “hộp đen”. (Tuy nhiên, đáng chú ý là việc rất khó có thể rút ra được lời giải thích về các quyết định của các AI sử dụng các kỹ thuật học sâu). Các nhà biện hộ ít nhất cũng đúng một phần, nếu chỉ vì thị trường đòi hỏi AI mỗi ngày một đáng tin cậy hơn, chứ không phải các phương thức khiến khách hàng chỉ biết cam chịu các vi phạm dân quyền và các hậu quả không thể nào giải thích nổi.

Trên thực tế, các công ty khởi nghiệp ở Thung lũng Silicon đã ý thức sâu sắc rằng các hệ thống chuyên gia AI, chẳng hạn như phần mềm giao dịch tài chính, máy đọc nội soi cắt lớp y khoa (medical scan) và thậm chí cả vũ khí bay không người lái của quân đội, sẽ không thành công nếu chuyên gia thực sự - tức nhà kinh doanh, bác sĩ hoặc phi công máy bay không người lái —Không thể yêu cầu được giải thích về những gì một hệ thống dựa trên AI đã đề nghị hoặc quyết định. Một số công ty khởi nghiệp hiện nay chuyên trích xuất các giải thích từ các hệ thống không rõ ràng. Chủ đề này cũng là một chủ đề quan trọng trong học thuật và nghiên cứu quốc phòng.

Tuy nhiên, phương thức phó mặc tự do sẽ không tạo ra các biện pháp kiểm soát thoả đáng đối với AI. Dù sao, bất cứ điều gì được Facebook xây dựng đều đã được kích hoạt bởi các lực lượng thị trường và không ai thực sự biết cách loại bỏ hoặc hãm đà các thiệt hại gây ra. Chính phủ cũng không đáng tin trong việc đưa ra phương thức đúng đắn, khi không có các khuôn khổ pháp lý rõ ràng. Ở Trung Quốc, Đảng Cộng sản đã sử dụng AI để thiết lập một nhà nước giám sát hết sức toàn diện, và, ngược lại, còn cung cấp kỹ thuật này cho các chế độ nước ngoài liên minh với Trung Quốc và những mong thắt chặt quyền kiểm soát chính trị của chính họ.

Một lần nữa, với khả năng tàng hình của những công cụ này, không có gì là xa vời khi dự đoán chúng sẽ, chỗ này chỗ nọ, trườn vào các xã hội dân chủ. Thí dụ, chúng ta nên thực hiện các biện pháp ngay từ bây giờ bằng cách vạch ra một số đường lối pháp lý xung quanh kỹ thuật giám sát gây tranh cãi như Clearview, vốn là một trong những kỹ thuật nhận diện khuôn mặt hàng đầu được cảnh sát sử dụng để nhận diện thủ phạm. Ở một số khu vực tài phán của Hoa Kỳ, kỹ thuật nhận diện khuôn mặt đã bị cấm và một số công ty kỹ thuật, đặc biệt là Microsoft và Amazon, đã bị sở cảnh sát cấm sử dụng các công cụ giống Clearview của họ. Tuy nhiên, việc nhận diện khuôn mặt chỉ là một trong nhiều cuộc tranh luận sôi nổi về sự đánh đổi giữa quyền riêng tư của công dân và việc chấp hành pháp luật hữu hiệu hơn. Không phải tất cả những sự đánh đổi như vậy đều liên quan đến AI, nhưng nhiều đánh đổi có liên quan, và số lượng của chúng sẽ tăng lên cách nhanh chóng trong những năm tới.

Trên thực tế, sự thiên vị AI và các vấn đề chấp pháp có thể không đáng kể so với tác động của AI đối với việc làm. Có một sự đồng ý rộng rãi rằng nhiều việc làm dành cho nhân viên cổ xanh và cổ trắng sẽ biến mất nhờ các hệ thống dựa trên AI trong những năm tới. Câu hỏi duy nhất là có bao nhiêu và công việc “mới” nào sẽ phát sinh để thay thế chúng. Trong cuốn AI Superpowers, Kai-Fu Lee ước tính rằng AI sẽ tự động hóa từ 40 đến 50% tất cả các việc làm của Hoa Kỳ, từ tài xế xe tải đến kế toán viên, trong những năm tới. Các ước tính của Lee cao hơn các nghiên cứu khác, chẳng hạn như các nghiên cứu được thực hiện bởi PwC và MIT, nhưng Lee cho biết nhiều nghiên cứu không nắm bắt được tốc độ mà với nó, AI đang trở nên có khả năng hơn. Thật vậy, ông tin rằng chúng ta đang hướng tới một biến động xã hội rất lớn, trong đó việc làm có ý nghĩa ngày càng khan hiếm và các chênh lệch kinh tế thậm chí còn gia tăng nhiều hơn nữa.

Một phản lập luận đối với dự phóng đen tối của Lee gần đây đã đứng đầu danh sách bán chạy nhất của tạp chí Wall Street. Cuốn -Reprogramming the American Dream (Lập trình lại Giấc mơ Mỹ) của Kevin Scott, Tổng giám đốc Kỹ thuật của Microsoft, đưa ra nhiều hy vọng hơn và lập luận rằng với nhiều đầu tư hơn vào giáo dục và cơ sở hạ tầng, AI có thể mang lại lợi ích cho người Mỹ, đặc biệt là những người sống ở những khu vực đình trệ bên ngoài các thành phố, một thế giới mà Scott biết rõ vì được nuôi dưỡng ở nông thôn Virginia. Không phải do ngẫu nhiên mà J. D. Vance đã viết lời tựa cho cuốn sách. Việc Scott tin tưởng cho rằng AI có thể lên sinh lực cho các nền kinh tế nông thôn đã được chứng minh bằng các điển hình về việc các trang trại nhỏ đã có thể phát triển rực rỡ ra sao, chẳng hạn bằng cách áp dụng các bộ cảm biến [sensors] rẻ tiền, các thuật toán thông minh, các đám mây [clouds] dữ kiện và điện toán “sát nguồn” [edge computing] để trồng trọt hoặc quản lý đàn gia súc hữu hiệu hơn. Chắc chắn cuốn sách rất đáng khích lệ và Scott là một nhà kỹ thuật xuất sắc mà vai trò của ông tại Microsoft mang lại cho ông khả năng tiếp cận đáng kể cũng như những hiểu biết sâu sắc về những gì đang diễn ra. Điều ít rõ ràng hơn là làm sao để bất cứ sự kết hợp nào giữa thị trường hoặc lực lượng công, hai thực thể mà Scott thừa nhận đều cần thiết, có thể đưa viễn kiến của Scott thành hiện thực trên một quy mô hữu ích.

Những hệ luận có tính cách mạng của kỹ thuật AI như xe hơi không người lái chỉ là dấu hiệu báo trước cho những phát triển cấp tiến hơn khi AI biến triển thành AGI, vốn là mục tiêu theo đuổi hiện nay của Google’s DeepMind và OpenAI. Elon Musk coi AI không được qui định là “rủi ro lớn nhất mà chúng ta phải đối phó trong tư cách một nền văn minh”, và giữa những người trong phái của ông có Stephen Hawking quá cố và Stuart Russell của Đại Học Berkeley. Điều đáng chú ý là các nỗ lực khoa học viễn tưởng để dự phóng AGI hầu như luôn luôn đều lạc chỗ: thí dụ: loạt phim Person of Interest (Người quan tâm) của CBS. Trong đó, một AI được huấn luyện để trân qúi mọi sự sống của con người đuợc đặt đọ sức với một AI mệnh danh là “Samaritan”, có khả năng lớn hơn để làm sạch xã hội một cách dữ dội không ngừng và không quan tâm chi đến sự sống, tự do hoặc diễn trình hợp pháp, bằng cách làm việc qua những con người có trí khôn và không có trí khôn.

Chúng ta chưa đến chỗ đó, nhưng đã qua thời gian để bắt đầu suy nghĩ về việc phải bảo đảm không bao giờ có một AI mạnh như Samaritan trong thế giới của chúng ta. Quan trọng hơn, chúng ta phải bảo đảm để những AI mà chúng ta cùng chung sống hiện nay được hiểu rõ và chịu sự kiểm soát của con người và những người tạo ra chúng phải chịu trách nhiệm giải trình. Nơi để bắt đầu là với những AI mà chúng ta đã có sẵn trong xã hội. Quá khứ đề ra một con đường phía trước.

Thế kỷ trước đáng chú ý với sự gia tăng các cơ quan chính phủ được lập ra để bảo vệ các công dân khỏi các kỹ thuật mới xuất hiện qua việc xét nghiệm và ra qui định. Về phương diện lịch sử, các cử tri có ý thức đã thúc đẩy ngành lập pháp hành động. Mô tả của Upton Sinclair trong The Jungle (Rừng hoang) về các điều kiện mất vệ sinh trong các kho trữ hàng ở Chicago đã dẫn đến Đạo luật Thực phẩm và Dược phẩm tinh khiết năm 1906, một đạo luật, ngược lại, đã dẫn đến việc thành lập ra FDA (Cơ quan Quản trị Thực phẩm và Thuốc thang). Các vụ đụng máy bay trên không trung trong những năm 1950 đã thúc đẩy sự ra đời của FAA (Cơ quan Quản trị Hàng không Liên bang). Cuốn sách gây tranh cãi của Ralph Nader, Unsafe at Any Speed (Không An toàn ở Bất cứ Tốc độ nào), và một bài báo của Hàn lâm viện Khoa học Quốc gia đã dẫn đến NHTSA (Cơ quan Quản trị An tòa Lưu thông Xa lộ Quốc gia) vào thập niên 1960. Những cơ quan này và những cơ quan khác đã cứu vô số mạng sống bằng cách thiết lập các xét nghiệm, xếp hạng và các chế độ quản lý nhằm định nghĩa “an toàn” là gì và buộc người thủ diễn phải chịu trách nhiệm giải trình.

Liệu một phương thức tương tự có thể hoạt động để ngăn chặn AI được không? Câu trả lời tốt nhất là chúng ta phải thử một điều gì đó, và khuôn khổ của cơ quan qui định phải là khuôn khổ được chứng minh. Tuy nhiên, AI khó xác định và kiềm chế hơn nhiều so với xe hơi và an toàn thực phẩm. Các hậu quả nguy hiểm tiềm tàng bao gồm từ thất nghiệp hàng loạt và việc truyền thông thao túng gây bất ổn về mặt xã hội ở đầu này của phổ hệ tới việc duy trì mãi mãi các tiên mẫu có sẵn về chủng tộc và nhiều điều khác trong diễn trình ra quyết định tự động ở đầu kia của phổ hệ. So sánh ra, việc giải quyết vấn đề an toàn xe hơi giống như trò chơi trẻ em. Tuy nhiên, việc kiềm chế AI tỏ ra quan trọng hơn nhiều so với công việc tuyệt vời mà các cơ quan bảo vệ người tiêu dùng đã thực hiện. Nền dân chủ và xã hội của chúng ta phụ thuộc vào điều này.

Giáo sư Russell và các đồng nghiệp đã bênh vực lập luận trên trong một bài báo đăng trên tạp chí Wired năm 2019:

"Chúng ta có thể sẽ phải chịu đựng thêm sự gián đoạn xã hội trong thời gian chờ đợi, vì các khuyến khích thương mại và chính trị tiếp tục khiến khu vực tư chưa được hưởng các hình thức bảo vệ chủ động mà chúng ta cần. Chúng ta sẽ bị đẩy xa hơn về phía cực đoan, và các niềm hy vọng về một ngôn từ cởi mở, hữu hiệu và đa dạng trong quảng trường thị trấn kỹ thuật số sẽ tàn lụi.

"Chúng ta có một thời gian ngắn để giữ thần đèn AI trong chiếc chai do chúng ta lựa chọn. Nếu chúng ta không hiểu mối đe dọa và ra luật lệ cho phù hợp, sẽ đến ngày AI đưa ra các quyết định cho chúng ta, không cần phải giải trình cho chúng ta, không cần chúng ta biết hoặc đồng ý".

Viết theo Ned Desmond, First Things, tháng 8 năm 2021


CÁC TIN KHÁC

Top