Skip to main content
Vina Technology at AI time - Công nghệ Việt Nam thời AI

Vina Technology at AI time - Công nghệ Việt Nam thời AI

By Lê Quang Văn

Kiến thức Khoa học và Kỹ thuật bằng tiếng Việt, tiếng Anh và nhiều ngoại ngữ khác.
Đặc biệt quan tâm đến các vấn đề có liên quan đến Trí tuệ Nhân tạo và đặc biệt về Xử lý Ngôn ngữ tự nhiên
Available on
Apple Podcasts Logo
Castbox Logo
Google Podcasts Logo
Overcast Logo
Pocket Casts Logo
PodBean Logo
RadioPublic Logo
Spotify Logo
Currently playing episode

Episode 1821 - May 12 - Phần 3 - Dẫn đầu trong một thế giới nơi AI nắm giữ sức mạnh của riêng mình - Vina Technology at AI time

Vina Technology at AI time - Công nghệ Việt Nam thời AIMay 10, 2024

00:00
12:20
Episode 1945 - June 2 - Chương 2 - Phần 3 của 3 - AI và Chatbot trong Công nghệ Tài chính - Vina Technology at AI time

Episode 1945 - June 2 - Chương 2 - Phần 3 của 3 - AI và Chatbot trong Công nghệ Tài chính - Vina Technology at AI time

AI và Chatbot trong Công nghệ Tài chính

Chương 2 - Vai trò của Chatbot trong FinTech

2.3.3 Nhận dạng giọng nói và chuyển văn bản thành giọng nói

Công nghệ nhận dạng giọng nói và chuyển văn bản thành giọng nói cho phép tương tác dựa trên giọng nói với chatbot, giúp chúng dễ tiếp cận và thân thiện với người dùng hơn.

2.3.3.1 Nhận dạng giọng nói tự động (ASR)

Công nghệ Nhận dạng giọng nói tự động chuyển đổi ngôn ngữ nói thành văn bản, cho phép chatbot hiểu và xử lý các lệnh thoại. Các hệ thống Nhận dạng giọng nói tự động sử dụng các mô hình âm thanh để nhận dạng âm vị và mô hình ngôn ngữ để hiểu ngữ cảnh, cho phép phiên âm chính xác các từ được nói.

2.3.3.2 Chuyển văn bản thành giọng nói (TTS)

Công nghệ Chuyển văn bản thành giọng nói chuyển đổi văn bản thành ngôn ngữ nói, cho phép chatbot phản hồi bằng giọng nói tự nhiên. Các hệ thống Chuyển văn bản thành giọng nói sử dụng giọng nói tổng hợp bắt chước các mẫu lời nói của con người, làm cho các tương tác trở nên hấp dẫn và thực tế hơn.

2.3.4 Tích hợp với hệ thống tài chính

Để chatbot có hiệu quả trong ngành FinTech, chúng phải được tích hợp với các hệ thống và nền tảng tài chính khác nhau. Sự tích hợp này liên quan đến việc trao đổi dữ liệu an toàn, xử lý thời gian thực và tuân thủ các yêu cầu quy định.

2.3.4.1 Tích hợp Giao diện lập trình ứng dụng API

Giao diện lập trình ứng dụng cho phép chatbot kết nối với các hệ thống tài chính, chẳng hạn như nền tảng ngân hàng, cổng thanh toán và dịch vụ đầu tư. Giao diện lập trình ứng dụng cho phép chatbot truy cập và xử lý dữ liệu tài chính, thực hiện giao dịch và cung cấp cập nhật theo thời gian thực cho người dùng.

2.3.4.2 Bảo mật và Tuân thủ

Đảm bảo tính bảo mật và tuân thủ của chatbot là rất quan trọng trong lĩnh vực tài chính. Chatbot phải tuân thủ các quy định bảo vệ dữ liệu, chẳng hạn như Quy định bảo vệ dữ liệu chung (GDPR) và Tiêu chuẩn bảo mật dữ liệu ngành thẻ thanh toán (PCI DSS). Thực hiện các biện pháp bảo mật mạnh mẽ, chẳng hạn như mã hóa và xác thực đa yếu tố, là điều cần thiết để bảo vệ dữ liệu người dùng và duy trì niềm tin.

2.4 Tích hợp chiến lược Chatbot trong FinTech

Việc tích hợp chatbot vào ngành công nghiệp FinTech là một động thái chiến lược mang lại nhiều lợi ích, bao gồm nâng cao trải nghiệm khách hàng, cải thiện hiệu quả hoạt động và giảm chi phí. Phần này khám phá các ứng dụng chiến lược của chatbot trong các lĩnh vực khác nhau của FinTech.

2.4.1 Tăng cường mối quan hệ khách hàng

Chatbot đóng một vai trò quan trọng trong việc tăng cường mối quan hệ khách hàng bằng cách cung cấp các dịch vụ được cá nhân hóa và hiệu quả. Chúng cho phép các tổ chức tài chính tương tác với khách hàng trong thời gian thực, cung cấp hỗ trợ và hướng dẫn phù hợp với nhu cầu cá nhân.

2.4.1.1 Hỗ trợ khách hàng 24/7

Một trong những lợi thế đáng kể nhất của chatbot là khả năng cung cấp hỗ trợ khách hàng suốt ngày đêm. Không giống như nhân viên, chatbot có thể xử lý các yêu cầu và giải quyết các vấn đề bất cứ lúc nào trong ngày, đảm bảo rằng khách hàng nhận được hỗ trợ kịp thời.

2.4.1.2 Tư vấn tài chính cá nhân

Chatbot có thể phân tích dữ liệu người dùng để cung cấp lời khuyên tài chính được cá nhân hóa, chẳng hạn như mẹo lập ngân sách, khuyến nghị đầu tư và chiến lược tiết kiệm. Bằng cách hiểu tình hình tài chính và mục tiêu của người dùng, chatbot có thể đưa ra các giải pháp phù hợp để nâng cao trải nghiệm của khách hàng.

2.4.2 Hợp lý hóa hoạt động tài chính

Chatbot có thể hợp lý hóa các hoạt động tài chính khác nhau, từ xử lý giao dịch đến quản lý tài khoản. Bằng cách tự động hóa các tác vụ thông thường, chatbot giảm khối lượng công việc cho các tác nhân con người và nâng cao hiệu quả hoạt động.

2.4.2.1 Xử lý giao dịch

Chatbots có thể xử lý một loạt các giao dịch, chẳng hạn như chuyển tiền, thanh toán hóa đơn và truy vấn tài khoản. Bằng cách tự động hóa các quy trình này, chatbot giảm thời gian và công sức cần thiết để hoàn thành giao dịch, mang lại trải nghiệm liền mạch và hiệu quả cho người dùng.

2.4.2.2 Quản lý tài khoản

May 28, 202410:07
Episode 1944 - June 2 - Chương 2 - Phần 2 của 3 - AI và Chatbot trong Công nghệ Tài chính - Vina Technology at AI time

Episode 1944 - June 2 - Chương 2 - Phần 2 của 3 - AI và Chatbot trong Công nghệ Tài chính - Vina Technology at AI time

AI và Chatbot trong Công nghệ Tài chính

Chương 2 - Vai trò của Chatbot trong FinTech

2.2.3.2 Học máy và Chatbot thích ứng

Các thuật toán học máy cho phép chatbot học hỏi từ các tương tác và cải thiện theo thời gian. Thay vì chỉ dựa vào các quy tắc được xác định trước, các chatbot thích ứng này có thể phân tích đầu vào của người dùng, nhận ra các mẫu và tạo ra các phản hồi thích hợp. Sự thay đổi này đánh dấu sự khởi đầu của các tác nhân đàm thoại thực sự thông minh.

2.2.4 Chatbot hiện đại và AI đàm thoại

2.2.4.1 Học sâu và mạng nơ-ron

Sự ra đời của Học sâu và mạng nơ-ron đã cách mạng hóa khả năng của chatbot. Các mô hình như GPT-3 của OpenAI và BERT của Google có thể hiểu và tạo ra văn bản giống như con người, cho phép chatbot tham gia vào các cuộc trò chuyện phức tạp và nhiều sắc thái. Các mô hình này được đào tạo trên một lượng lớn dữ liệu, cho phép chúng cung cấp các phản hồi chính xác và phù hợp với ngữ cảnh.

2.2.4.2 Tích hợp với Dịch vụ Tài chính

Các chatbot hiện đại hiện được tích hợp sâu vào các dịch vụ tài chính, cung cấp một loạt các chức năng từ hỗ trợ khách hàng đến tư vấn tài chính. Họ tận dụng AI để cung cấp trải nghiệm được cá nhân hóa, tăng cường sự tham gia của khách hàng và hợp lý hóa các quy trình tài chính, khiến chúng trở thành công cụ không thể thiếu trong ngành FinTech.

2.3 Công nghệ đằng sau Chatbot

Để hiểu vai trò của chatbot trong FinTech, điều quan trọng là phải khám phá các công nghệ cơ bản cung cấp năng lượng cho các hệ thống thông minh này. Phần này đi sâu vào các thành phần và phương pháp chính cho phép chatbot cung cấp các dịch vụ tài chính hiệu quả và hiệu quả.

2.3.1 Xử lý ngôn ngữ tự nhiên

Xử lý ngôn ngữ tự nhiên là một công nghệ cốt lõi cho phép chatbot hiểu và tạo ra ngôn ngữ của con người. Nó bao gồm các kỹ thuật và thuật toán khác nhau được thiết kế để xử lý và phân tích một lượng lớn dữ liệu ngôn ngữ tự nhiên.

2.3.1.1 Tiền xử lý văn bản

Tiền xử lý văn bản liên quan đến việc làm sạch và chuyển đổi dữ liệu văn bản thô thành định dạng phù hợp để phân tích. Các bước tiền xử lý phổ biến bao gồm mã thông báo (tách văn bản thành các từ hoặc cụm từ), stemming (giảm các từ về dạng cơ sở của chúng) và loại bỏ các từ dừng (các từ phổ biến không mang ý nghĩa quan trọng).

2.3.1.2 Phân tích tình cảm

Phân tích tình cảm là quá trình xác định giai điệu cảm xúc của một đoạn văn bản. Kỹ thuật này giúp chatbot hiểu được tâm trạng của người dùng và phản hồi phù hợp. Ví dụ: một chatbot có thể cung cấp sự trấn an nếu nó phát hiện ra sự thất vọng hoặc đề xuất một sản phẩm nếu nó phát hiện ra sự quan tâm.

2.3.1.3 Nhận dạng thực thể có tên (NER)

Nhận dạng thực thể có tên liên quan đến việc xác định và phân loại các thực thể trong văn bản, chẳng hạn như tên người, tổ chức, địa điểm và giá trị tiền tệ. Khả năng này cho phép chatbot trích xuất thông tin quan trọng từ các truy vấn của người dùng và cung cấp các câu trả lời có liên quan.

2.3.2 Học máy và học sâu

Học máy và học sâu rất quan trọng để phát triển các chatbot thông minh và thích ứng. Những công nghệ này cho phép chatbot học hỏi từ dữ liệu, cải thiện theo thời gian và xử lý các tác vụ phức tạp.

2.3.2.1 Học tập có giám sát

Trong học tập có giám sát, chatbot được đào tạo trên các bộ dữ liệu được gắn nhãn, trong đó mỗi đầu vào được ghép nối với đầu ra chính xác. Cách tiếp cận này được sử dụng cho các nhiệm vụ như nhận dạng ý định, trong đó chatbot học cách xác định ý định của người dùng dựa trên truy vấn của họ.

2.3.2.2 Học không giám sát

Học không giám sát liên quan đến việc đào tạo chatbot trên dữ liệu không được gắn nhãn, cho phép chúng khám phá các mẫu và mối quan hệ trong dữ liệu. Cách tiếp cận này hữu ích cho các tác vụ như phân cụm các truy vấn tương tự và xác định các vấn đề phổ biến của người dùng

2.3.2.3 Học tăng cường

Học tăng cường liên quan đến việc đào tạo chatbot để đưa ra quyết định dựa trên phản hồi từ các tương tác của chúng. Chatbot nhận được phần thưởng hoặc hình phạt dựa trên chất lượng phản hồi của nó, dần dần cải thiện hiệu suất của nó theo

May 28, 202409:18
Episode 1943 - June 2 - Chương 2 - Phần 1 của 3 - AI và Chatbot trong Công nghệ Tài chính - Vina Technology at AI time

Episode 1943 - June 2 - Chương 2 - Phần 1 của 3 - AI và Chatbot trong Công nghệ Tài chính - Vina Technology at AI time

AI và Chatbot trong Công nghệ Tài chính

Chương 2 - Vai trò của Chatbot trong FinTech

2.1 Giới thiệu về Chatbot trong FinTech

Ngành công nghệ tài chính (FinTech) đang trải qua một sự chuyển đổi đáng kể với việc tích hợp trí tuệ nhân tạo đàm thoại (AI) dưới dạng chatbot. Các hệ thống thông minh này đang xác định lại các tương tác của khách hàng, nâng cao trải nghiệm người dùng và hợp lý hóa các hoạt động tài chính. Chương này đi sâu vào môi trường năng động tại giao điểm của chatbot và FinTech, khám phá lịch sử, công nghệ và các ứng dụng chiến lược của chatbot trong lĩnh vực tài chính.

2.1.1 Định nghĩa Chatbot

Chatbot là các ứng dụng phần mềm được hỗ trợ bởi AI được thiết kế để mô phỏng cuộc trò chuyện của con người thông qua các tương tác văn bản hoặc giọng nói. Chúng sử dụng xử lý ngôn ngữ tự nhiên để hiểu và trả lời các truy vấn của người dùng, cung cấp trải nghiệm liền mạch và tương tác. Chatbot có thể thực hiện một loạt các nhiệm vụ, từ trả lời các câu hỏi đơn giản đến thực hiện các giao dịch phức tạp, làm cho chúng trở nên vô giá trong ngành FinTech.

2.1.2 Sự phát triển của Chatbot trong FinTech

Hành trình của chatbot trong FinTech bắt đầu với các hệ thống dựa trên quy tắc thô sơ có thể xử lý các yêu cầu cơ bản của khách hàng. Theo thời gian, những tiến bộ trong AI, học máy và xử lý ngôn ngữ tự nhiên đã tạo ra các chatbot tinh vi có khả năng hiểu ngữ cảnh, học hỏi từ các tương tác và cung cấp các dịch vụ tài chính được cá nhân hóa. Sự phát triển này đã được thúc đẩy bởi nhu cầu hiệu quả, giảm chi phí và nâng cao sự hài lòng của khách hàng trong lĩnh vực tài chính.

2.2 Lịch sử của Chatbots

Sự phát triển của chatbot có thể được bắt nguồn từ giữa thế kỷ 20, với những cột mốc quan trọng đánh dấu sự tiến bộ của chúng trong nhiều thập kỷ. Hiểu được lịch sử này cung cấp bối cảnh có giá trị cho các ứng dụng hiện tại và tiềm năng tương lai của họ trong FinTech.

2.2.1 Những phát triển ban đầu

2.2.1.1 ELIZA và sự ra đời của Chatbot

Một trong những chatbot sớm nhất, ELIZA, được tạo ra bởi Joseph Weizenbaum vào những năm 1960 tại Viện Công nghệ Massachusetts (MIT). ELIZA được thiết kế để bắt chước một nhà trị liệu tâm lý, sử dụng phương pháp kết hợp mẫu và thay thế để mô phỏng cuộc trò chuyện. Mặc dù còn sơ khai theo tiêu chuẩn ngày nay, ELIZA đã chứng minh tiềm năng của AI đàm thoại.

2.2.1.2 PARRY và mô phỏng nâng cao

Vào đầu những năm 1970, Kenneth Colby đã phát triển PARRY, một chatbot mô phỏng một người bị tâm thần phân liệt hoang tưởng. PARRY đã sử dụng các thuật toán phức tạp hơn ELIZA, kết hợp sự hiểu biết thô sơ về tâm lý con người. Sự phát triển này đánh dấu một bước tiến đáng kể trong sự phức tạp và hiện thực của các tương tác chatbot.

2.2.2 Sự trỗi dậy của các hệ thống dựa trên quy tắc

2.2.2.1 Hệ thống chuyên gia

Trong những năm 1980 và 1990, sự phát triển của các hệ thống chuyên gia đã mở đường cho các chatbot tiên tiến hơn. Các hệ thống này đã sử dụng các quy tắc được xác định trước và cây quyết định để cung cấp phản hồi dựa trên đầu vào của người dùng. Mặc dù hiệu quả đối với các tác vụ cụ thể, các hệ thống dựa trên quy tắc bị hạn chế về khả năng xử lý các truy vấn phức tạp hoặc bất ngờ.

2.2.2.2 Tích hợp trong Dịch vụ Khách hàng

Khi internet và truyền thông kỹ thuật số phát triển, các doanh nghiệp bắt đầu tích hợp các chatbot dựa trên quy tắc vào nền tảng dịch vụ khách hàng của họ. Những chatbot ban đầu này có thể xử lý các câu hỏi thường gặp và các tác vụ hỗ trợ cơ bản, giảm khối lượng công việc cho các tác nhân con người và cải thiện thời gian phản hồi.

2.2.3 Sự xuất hiện của AI và Học máy

2.2.3.1 Những tiến bộ trong Xử lý ngôn ngữ tự nhiên

Bước sang thế kỷ 21 đã chứng kiến những tiến bộ đáng kể trong xử lý ngôn ngữ tự nhiên, được thúc đẩy bởi sự sẵn có ngày càng tăng của dữ liệu và cải thiện sức mạnh tính toán. Những tiến bộ này cho phép chatbot hiểu và xử lý ngôn ngữ tự nhiên hiệu quả hơn, dẫn đến các tương tác có ý nghĩa và nhận thức ngữ cảnh hơn.


May 28, 202409:08
Episode 1942 - June 2 - Chương 1 - Phần 2 của 2 - AI và Chatbot trong Công nghệ Tài chính - Vina Technology at AI time

Episode 1942 - June 2 - Chương 1 - Phần 2 của 2 - AI và Chatbot trong Công nghệ Tài chính - Vina Technology at AI time

Chương 1 - Giới thiệu về AI trong FinTech

1.2.2.2 Ứng dụng của Học sâu trong FinTech

Học sâu có một loạt các ứng dụng trong FinTech, bao gồm:

• Chấm điểm tín dụng: Mạng nơ-ron sâu có thể phân tích mức độ tín nhiệm bằng cách đánh giá vô số yếu tố, cung cấp điểm tín dụng chính xác và công bằng hơn.

• Phát hiện gian lận: Các mô hình học sâu có thể phát hiện các giao dịch gian lận bằng cách xác định các mẫu và bất thường tinh tế mà các phương pháp truyền thống có thể bỏ qua.

• Giao dịch thuật toán: Mạng nơ-ron có thể phân tích dữ liệu thị trường và thực hiện giao dịch dựa trên các chiến lược phức tạp, tối ưu hóa lợi nhuận.

1.2.3 Xử lý ngôn ngữ tự nhiên

Xử lý ngôn ngữ tự nhiên là một nhánh của AI tập trung vào sự tương tác giữa máy tính và ngôn ngữ của con người. Xử lý ngôn ngữ tự nhiên cho phép máy móc hiểu, giải thích và tạo ra ngôn ngữ của con người, làm cho nó trở thành một công nghệ quan trọng cho các ứng dụng FinTech.

1.2.3.1 Các kỹ thuật Xử lý ngôn ngữ tự nhiên chính

• Phân tích văn bản: Trích xuất thông tin có ý nghĩa từ dữ liệu văn bản, chẳng hạn như phân tích tình cảm và mô hình hóa chủ đề.

• Nhận dạng giọng nói: Chuyển đổi ngôn ngữ nói thành văn bản, cho phép các dịch vụ tài chính kích hoạt bằng giọng nói.

• Dịch máy: Dịch văn bản từ ngôn ngữ này sang ngôn ngữ khác, tạo điều kiện thuận lợi cho các giao dịch tài chính xuyên biên giới.

1.2.3.2 Xử lý ngôn ngữ tự nhiên trong FinTech

Xử lý ngôn ngữ tự nhiên được sử dụng trong các ứng dụng FinTech:

• Chatbot và Trợ lý ảo: Cung cấp hỗ trợ khách hàng và tư vấn tài chính thông qua giao diện đàm thoại.

• Xử lý tài liệu: Tự động hóa việc trích xuất và phân tích thông tin từ các tài liệu tài chính.

• Phân tích tình cảm: Đánh giá tâm lý thị trường bằng cách phân tích các bài báo, bài đăng trên phương tiện truyền thông xã hội và các dữ liệu văn bản khác.

1.3 Tác động của AI đối với các dịch vụ tài chính truyền thống

Việc tích hợp AI vào các dịch vụ tài chính truyền thống đã có tác động sâu sắc, thúc đẩy hiệu quả, độ chính xác và đổi mới. Phần này khám phá cách AI đang chuyển đổi các lĩnh vực chính của dịch vụ tài chính, bao gồm dịch vụ khách hàng, quản lý rủi ro và chiến lược đầu tư.

1.3.1 Nâng cao dịch vụ khách hàng

Các chatbot và trợ lý ảo được hỗ trợ bởi AI đang cách mạng hóa dịch vụ khách hàng trong lĩnh vực tài chính. Các hệ thống thông minh này có thể xử lý một loạt các nhiệm vụ, từ trả lời các truy vấn phổ biến đến cung cấp tư vấn tài chính được cá nhân hóa, cải thiện đáng kể trải nghiệm của khách hàng.

1.3.1.1 Chatbot trong ngân hàng

Các ngân hàng và tổ chức tài chính đang triển khai chatbot để cung cấp hỗ trợ khách hàng 24/7, xử lý các yêu cầu thông thường và hướng dẫn khách hàng thông qua các quy trình phức tạp như đơn xin vay. Bằng cách tự động hóa các tương tác này, các ngân hàng có thể giảm chi phí hoạt động và nâng cao sự hài lòng của khách hàng.

1.3.1.2 Quản lý tài chính cá nhân

Trợ lý ảo do AI điều khiển có thể giúp khách hàng quản lý tài chính của họ bằng cách cung cấp thông tin chi tiết về mô hình chi tiêu, đề xuất chiến lược lập ngân sách và đưa ra lời khuyên đầu tư được cá nhân hóa. Những công cụ này trao quyền cho khách hàng đưa ra quyết định tài chính sáng suốt và đạt được mục tiêu tài chính của họ.

1.3.2 Tối ưu hóa quản lý rủi ro

Quản lý rủi ro là một khía cạnh quan trọng của các dịch vụ tài chính và AI đang đóng một vai trò quan trọng trong việc tăng cường tính chính xác và hiệu quả của các chiến lược đánh giá và giảm thiểu rủi ro.

1.3.2.1 Đánh giá rủi ro tín dụng

Các mô hình AI có thể phân tích lượng dữ liệu khổng lồ để đánh giá mức độ tín nhiệm của cá nhân và doanh nghiệp chính xác hơn so với các phương pháp truyền thống. Các mô hình này xem xét một loạt các yếu tố, bao gồm lịch sử giao dịch, hoạt động truyền thông xã hội và các nguồn dữ liệu thay thế, để cung cấp một hồ sơ rủi ro toàn diện.

1.3.2.2 Phát hiện gian lận

Các hệ thống phát hiện gian lận được hỗ trợ bởi AI có thể xác định các hoạt động đáng ngờ trong thời gian thực bằng cách phân tích các mẫu giao

May 28, 202408:23
Episode 1941 - June 2 - Chương 1 - Phần 1 của 2 - AI và Chatbot trong Công nghệ Tài chính - Vina Technology at AI time

Episode 1941 - June 2 - Chương 1 - Phần 1 của 2 - AI và Chatbot trong Công nghệ Tài chính - Vina Technology at AI time

Chương 1 - Giới thiệu về AI trong FinTech

1.1 Sự hội tụ của AI và FinTech

Giao điểm của Trí tuệ nhân tạo (AI) và Công nghệ tài chính (FinTech) đại diện cho một biên giới biến đổi đang định hình lại cảnh quan của các dịch vụ tài chính. Chương này đi sâu vào các khái niệm cơ bản của AI và xem xét cách các công nghệ này đang cách mạng hóa các dịch vụ tài chính truyền thống, cung cấp một cái nhìn tổng quan toàn diện về sức mạnh tổng hợp năng động giữa AI và FinTech.

1.1.1 Định nghĩa trí tuệ nhân tạo

Trí tuệ nhân tạo đề cập đến việc mô phỏng trí thông minh của con người trong các máy móc được lập trình để suy nghĩ và học hỏi như con người. Những hệ thống thông minh này có khả năng thực hiện các nhiệm vụ thường đòi hỏi trí thông minh của con người, chẳng hạn như nhận thức thị giác, nhận dạng giọng nói, ra quyết định và dịch ngôn ngữ. AI bao gồm một loạt các lĩnh vực con, bao gồm học máy, xử lý ngôn ngữ tự nhiên, robot và thị giác máy tính.

1.1.2 Hiểu về FinTech

Công nghệ tài chính, hay FinTech, đề cập đến việc sử dụng công nghệ để cung cấp các dịch vụ tài chính. Lĩnh vực này bao gồm nhiều ứng dụng khác nhau, từ thanh toán kỹ thuật số và cho vay ngang hàng đến cố vấn robot và công nghệ blockchain. FinTech nhằm mục đích cải thiện và tự động hóa việc cung cấp và sử dụng các dịch vụ tài chính, làm cho chúng dễ tiếp cận, hiệu quả và thân thiện với người dùng hơn.

1.1.3 Sự phát triển của AI trong FinTech

Việc tích hợp AI vào FinTech đã phát triển đáng kể trong vài thập kỷ qua. Ban đầu, các ứng dụng AI trong tài chính chỉ giới hạn ở các hệ thống dựa trên quy tắc đơn giản. Tuy nhiên, những tiến bộ trong học máy, dữ liệu lớn và sức mạnh tính toán đã cho phép phát triển các mô hình AI tinh vi có thể xử lý lượng dữ liệu khổng lồ và tạo ra thông tin chi tiết trong thời gian thực.

1.2 Các khái niệm cơ bản về trí tuệ nhân tạo

Để đánh giá đầy đủ tác động của AI đối với FinTech, điều cần thiết là phải hiểu các khái niệm cốt lõi làm nền tảng cho trí tuệ nhân tạo. Phần này khám phá các công nghệ và phương pháp AI chính, bao gồm học máy, mạng thần kinh và xử lý ngôn ngữ tự nhiên.

1.2.1 Học máy

Học máy (ML) là một tập hợp con của AI liên quan đến việc sử dụng các thuật toán và mô hình thống kê để cho phép máy tính thực hiện các tác vụ cụ thể mà không cần hướng dẫn rõ ràng. Hệ thống học máy học hỏi từ dữ liệu, xác định các mẫu và đưa ra quyết định với sự can thiệp tối thiểu của con người. Có ba loại máy học chính:

1.2.1.1 Học tập có giám sát

Trong học tập có giám sát, thuật toán được đào tạo trên một tập dữ liệu được gắn nhãn, có nghĩa là mỗi ví dụ đào tạo được ghép nối với một nhãn đầu ra. Mô hình học cách đưa ra dự đoán hoặc quyết định dựa trên các cặp đầu vào-đầu ra. Các ứng dụng phổ biến bao gồm chấm điểm tín dụng, phát hiện gian lận và phân khúc khách hàng.

1.2.1.2 Học không giám sát

Học không giám sát liên quan đến việc đào tạo một thuật toán trên một tập dữ liệu mà không có phản hồi được gắn nhãn. Mô hình xác định các mẫu và mối quan hệ trong dữ liệu, chẳng hạn như phân cụm khách hàng dựa trên hành vi giao dịch của họ. Cách tiếp cận này thường được sử dụng để phân khúc thị trường và phát hiện bất thường.

1.2.1.3 Học tăng cường

Học tăng cường là một loại học máy trong đó một đại lý học cách đưa ra quyết định bằng cách thực hiện các hành động và nhận phản hồi thông qua phần thưởng hoặc hình phạt. Cách tiếp cận này đặc biệt hữu ích để phát triển các thuật toán giao dịch và tối ưu hóa chiến lược đầu tư.

1.2.2 Mạng nơ-ron và học sâu

Mạng lưới thần kinh là một tập hợp các thuật toán được thiết kế để nhận ra các mẫu, lấy cảm hứng từ cấu trúc và chức năng của bộ não con người. Chúng bao gồm các lớp nút liên kết với nhau, hoặc tế bào thần kinh, xử lý và truyền thông tin. Học sâu, một tập hợp con của học máy, liên quan đến các mạng thần kinh với nhiều lớp, được gọi là mạng nơ-ron sâu.

1.2.2.1 Cấu trúc của mạng nơ-ron

Mạng nơ-ron bao gồm một lớp đầu vào, một hoặc nhiều lớp ẩn và một lớp đầu ra.

May 28, 202409:23
Episode 1940 - June 2 - Mục lục - AI và Chatbot trong Công nghệ Tài chính - Vina Technology at AI time

Episode 1940 - June 2 - Mục lục - AI và Chatbot trong Công nghệ Tài chính - Vina Technology at AI time

AI và Chatbot trong Công nghệ Tài chính (Fintech)

Cách mạng hóa trải nghiệm kỹ thuật số và phân tích dự đoán

Lê Quang Văn soạn và thực hiện phần kỹ thuật số. (2024)

Mục lục

Giới thiệu về cuốn sách này

Cuốn sách này là một hướng dẫn toàn diện về việc sử dụng Trí tuệ nhân tạo (AI) trong ngành Công nghệ Tài chính (FinTech). Nó bao gồm mười hai chương, mỗi chương đề cập đến một khía cạnh cụ thể của AI trong FinTech. Người đọc được giới thiệu về AI trong FinTech, bao gồm lịch sử và tình trạng hiện tại của nó, và vai trò của chatbot trong FinTech và cách chúng được sử dụng để cải thiện dịch vụ khách hàng. Hơn nữa, cuốn sách khám phá khuôn khổ kinh doanh của ChatGPT dựa trên AI trong FinTech, bao gồm công nghệ đằng sau ChatGPT và cách nó có thể được áp dụng cho các lĩnh vực tài chính khác nhau. Cuốn sách xem xét việc sử dụng phân tích dự đoán và học máy trong FinTech, nêu bật cách các công cụ này được sử dụng để dự đoán hành vi của khách hàng và cải thiện việc ra quyết định. Tác giả đi sâu vào cách ChatGPT được sử dụng để xác định hành vi mua hàng và thảo luận về việc sử dụng học máy để định hình lại trải nghiệm kỹ thuật số trong FinTech. Ngoài ra, cuốn sách cung cấp các phương pháp hay nhất để giữ chân khách hàng trong FinTech, bao gồm cách sử dụng AI để tạo ra trải nghiệm cá nhân hóa khiến khách hàng quay lại và khám phá các ứng dụng khác nhau của các mô hình dự đoán trong FinTech, bao gồm cách chúng được sử dụng để cải thiện quản lý rủi ro và phát hiện gian lận. Cuối cùng, cuốn sách thảo luận về việc sử dụng ChatGPT để dự đoán giá cổ phiếu và phát hiện gian lận tài chính và xem xét vai trò của ChatGPT trong thế giới tiền điện tử, bao gồm cả cách nó có thể được sử dụng để đưa ra quyết định đầu tư sáng suốt. Nhìn chung, cuốn sách này cung cấp một cái nhìn tổng quan toàn diện về những cách khác nhau mà AI đang được sử dụng trong FinTech và tiềm năng của nó để cải thiện trải nghiệm của khách hàng và thúc đẩy sự đổi mới trong ngành tài chính.

Mục lục

Chương 1 - Giới thiệu về AI trong FinTech

Chương này cung cấp một cuộc điều tra cơ bản về lĩnh vực năng động tại giao điểm của Trí tuệ nhân tạo (AI) và Công nghệ tài chính (FinTech). Nó giải thích các khái niệm cơ bản về trí tuệ nhân tạo và tác động của AI đối với các dịch vụ tài chính truyền thống. Chương này cung cấp thông tin chi tiết về học máy, phân tích dự đoán, giao dịch thuật toán và quản lý rủi ro, giới thiệu các ứng dụng và nghiên cứu điển hình trong thế giới thực.

Chương 2 - Vai trò của Chatbot trong FinTech

Chương này khám phá môi trường năng động tại giao điểm của AI đàm thoại và FinTech. Nó bao gồm lịch sử của chatbot, công nghệ hỗ trợ chúng và tích hợp chiến lược của chúng vào ngành công nghiệp FinTech. Nó nhấn mạnh tác động của chatbot đối với mối quan hệ khách hàng và trải nghiệm người dùng, và việc sử dụng xử lý ngôn ngữ tự nhiên và học máy trong việc phát triển các hệ thống chatbot thông minh.

Chương 3 - Khung kinh doanh của ChatGPT dựa trên AI trong FinTech

Chương này xem xét việc tích hợp chiến lược và triển khai các hệ thống trò chuyện được hỗ trợ bởi AI, tập trung vào ChatGPT. Nó khám phá cấu trúc kinh doanh, tuân thủ các quy định, bảo quản dữ liệu và cân nhắc đạo đức. Chương này cung cấp thông tin chi tiết về cách các tổ chức tài chính tận dụng ChatGPT để tăng cường tương tác với khách hàng, đơn giản hóa giao tiếp và tối ưu hóa quy trình hoạt động.

Chương 4 - Phân tích dự đoán và học máy trong FinTech

Chương này điều tra các ứng dụng và ảnh hưởng của học máy và phân tích dự đoán trong FinTech. Nó bao gồm các thủ tục và thuật toán làm cơ sở cho các công nghệ này và việc sử dụng chúng trong dự báo xu hướng thị trường, cải thiện quản lý rủi ro và tăng cường ra quyết định. Các ví dụ thực tế minh họa tiện ích của chúng trong giao dịch thuật toán, chấm điểm tín dụng và phát hiện gian lận.

May 28, 202408:28
Episode 1939 - June 1 - Tiếng Đức - Bầu cử toàn cầu trong bóng tối của chủ nghĩa tân tự do - Vina Technology at AI time

Episode 1939 - June 1 - Tiếng Đức - Bầu cử toàn cầu trong bóng tối của chủ nghĩa tân tự do - Vina Technology at AI time

Globale Wahlen im Schatten des Neoliberalismus

Joseph E. Stiglitz. Project Syndicate. May 1, 2024.

Überall auf der Welt ist der populistische Nationalismus auf dem Vormarsch, der oft von autoritären Führern an die Macht gebracht wird. Dabei sollte die neoliberale Orthodoxie ‑ Verkleinerung der Staatsmacht, Steuersenkungen, Deregulierung ‑, die sich vor rund 40 Jahren im Westen durchsetzte, die Demokratie stärken und nicht schwächen. Was ist schief gelaufen?

Ein Teil der Antwort ist wirtschaftlicher Natur: Der Neoliberalismus hat einfach nicht gehalten, was er versprach. In den Vereinigten Staaten und anderen fortgeschrittenen Volkswirtschaften, die ihn übernommen haben, war das reale (inflationsbereinigte) Pro-Kopf-Einkommen zwischen 1980 und der COVID-19-Pandemie um 40 % niedriger als in den 30 Jahren davor. Schlimmer noch, die Einkommen im unteren und mittleren Bereich stagnierten weitgehend, während die Einkommen im oberen Bereich stiegen, und die bewusste Schwächung des Sozialschutzes führte zu größerer finanzieller und wirtschaftlicher Unsicherheit.

Junge Menschen sind zu Recht besorgt, dass der Klimawandel ihre Zukunft bedroht, und sie sehen, dass die vom Neoliberalismus beherrschten Länder es immer wieder versäumt haben, strenge Vorschriften gegen die Umweltverschmutzung zu erlassen (oder, wie in den USA, die Opioid-Krise und die Epidemie von Kinderdiabetes zu bekämpfen). Leider sind diese Versäumnisse nicht überraschend. Der Neoliberalismus basierte auf der Überzeugung, dass uneingeschränkte Märkte der effizienteste Weg sind, um optimale Ergebnisse zu erzielen. Doch schon in den frühen Tagen des Aufstiegs des Neoliberalismus stellten Ökonomen fest, dass unregulierte Märkte weder effizient noch stabil sind, geschweige denn zu einer sozial akzeptablen Einkommensverteilung führen.

Die Befürworter des Neoliberalismus schienen nie zu erkennen, dass die Ausweitung der Freiheit von Unternehmen die Freiheit der übrigen Gesellschaft einschränkt. Die Freiheit, die Umwelt zu verschmutzen, führt zu einer Verschlechterung der Gesundheit (oder für Asthmatiker sogar zum Tod), zu extremerem Wetter und zu unbewohnbarem Land. Natürlich gibt es immer Kompromisse, aber jede vernünftige Gesellschaft würde zu dem Schluss kommen, dass das Recht zu leben wichtiger ist als das fadenscheinige Recht, die Umwelt zu verschmutzen.

Auch die Besteuerung ist dem Neoliberalismus ein Dorn im Auge, weil er darin einen Angriff auf die individuelle Freiheit sieht: Jeder hat das Recht, alles zu behalten, was er verdient, unabhängig davon, wie er es verdient hat. Aber selbst wenn sie ehrlich zu ihrem Einkommen gekommen sind, ignorieren sie, dass es durch staatliche Investitionen in Infrastruktur, Technologie, Bildung und Gesundheitswesen ermöglicht wurde. Nur selten denken sie darüber nach, was sie hätten, wenn sie in einem der vielen Länder ohne Rechtsstaatlichkeit geboren worden wären (oder wie ihr Portfolio aussehen würde, wenn die US-Regierung nicht die Investitionen getätigt hätte, die zur Entwicklung des COVID-19-Impfstoffs geführt haben).

Im Gegenteil: Diejenigen, die am meisten beim Staat verschuldet sind, vergessen oft als erste, was die Regierung für sie getan hat. Wo wären Elon Musk und Tesla ohne die Rettungsleine von fast einer halben Milliarde Dollar, die sie 2010 von Präsident Barack Obamas Energieministerium erhielten? „Steuern sind der Preis, den wir für eine zivilisierte Gesellschaft zahlen“, hat Oliver Wendell Holmes, Richter am Obersten Gerichtshof der USA, einmal gesagt. Daran hat sich bis heute nichts geändert: Steuern sind das, was man braucht, um die Rechtsstaatlichkeit zu etablieren oder andere öffentliche Güter bereitzustellen, die eine Gesellschaft im 21. Jahrhundert braucht, um zu funktionieren.

Wir gehen hier über bloße Kompromisse hinaus, weil alle ‑ auch die Reichen ‑ durch eine ausreichende Versorgung mit diesen Gütern besser gestellt werden. Insofern kann Zwang emanzipatorisch sein.

May 28, 202409:12
Episode 1938 - June 1 - Tiếng Trung - Bầu cử toàn cầu trong bóng tối của chủ nghĩa tân tự do - Vina Technology at AI time

Episode 1938 - June 1 - Tiếng Trung - Bầu cử toàn cầu trong bóng tối của chủ nghĩa tân tự do - Vina Technology at AI time

新自由主义阴影下的全球选举

Joseph E. Stiglitz. Project Syndicate. May 1, 2024.

在世界各地,通常在威权领袖的带领下,民粹民族主义正在崛起。但大约40年前,曾在西方盛极一时的新自由主义正统观念——包括政府精简、减税及放松管制——被认为理应强化而非削弱民主体制。究竟是哪里出了问题?

部分原因在于经济领域,新自由主义根本就没有兑现承诺。在美国和其他奉行新自由主义的发达经济体,1980年至新冠疫情流行期间,(经通胀调整后的)人均实际收入增长相比前30年降低了40%。更糟糕的是,中底层收入在很大程度上停滞不前,而顶层收入却在不断增长,且对社会保障的蓄意削弱则导致了更严重的财政和经济不安全。

年轻人理所当然地忧虑气候变化会影响他们的未来,他们亲眼目睹新自由主义影响下的国家一直未能制定强有力的反污染法规(或者,在美国未能解决阿片类药物危机以及儿童糖尿病的盛行)。可悲的是,这样的失败并不令人意外。新自由主义的前提就是:相信不受约束的市场是实现最佳结果的最有效手段。但即便是在新自由主义盛行的早期,经济学家也已经确定,不受监管的市场既不高效也不稳定,更遑论有利于创造出能为社会所接受的收入分配。

新自由主义的倡导者似乎从未意识到,扩大企业自由会导致整个社会的自由被削弱。污染自由意味着健康状况恶化(甚至是哮喘患者死亡)、天气更为极端以及土地不再宜居。当然,任何事总有取舍;但任何理性的社会都会得出生存权比所谓伪污染权更重要的结论。

税收同样为新自由主义所厌憎,新自由主义将之定义为对个人自由的冒犯:无论收入多寡,人们都有权保留自己的收入。但即使他们取得收入的方式合法,上述观点的倡导者也未能意识到,是政府对基础设施、技术、教育和公共卫生的投资使他们的收入成为可能。他们很少会停下来思考,如果出生在没有法治的国家,他们还能不能拥有这些财富(或者,如果美国政府没有进行研发新冠疫苗的投资,其投资组合将会出现什么样的结果)。

相反,那些亏欠政府最多的人往往最先忘记政府曾为他们做过什么。如果不是2010年曾从巴拉克·奥巴马总统下属能源部获得近5亿美元的救命款,埃隆·马斯克和特斯拉将会发生什么?最高法院大法官奥利弗·温德尔·霍姆斯曾说过一句名言:“税收是我们为文明社会所付出的代价。”这一点从未改变过:税收是建设法治或提供21世纪社会运行所需的其他公共产品所必需的。

在此,我们超越了单纯的权衡,因为每个人——也包括富人在内——都可以通过上述商品的充足供应而变得更好。从这个意义上讲,强制也可以是解放。人们已就此原则达成广泛共识,即要想得到必需品就须为其付费,而这就需要税收

当然,小政府的支持者会提出许多开支应当缩减,包括由政府管理的养老金和公共提供的医疗保健服务。但同样,如果大多数人被迫承受在老年阶段可靠医疗或收入缺失所带来的恐惧和不安全感,那么,整个社会都将变得不那么自由。即使每位亿万富翁都被要求多缴纳一点税款来资助儿童税收抵免会对其幸福感造成一定影响,但想想,这对于一个吃不饱饭或父母负担不起就医费用的儿童而言将意味着什么。想想看,如果成长过程中营养不良或受疾病困扰的儿童越来越少,那么,这对整个国家的未来意味着什么。

所有这些问题都将成为今年众多选举的核心关注。美国即将到来的总统大选不仅意味着在混乱和有序政府、还意味着在经济哲学和政策之间做出艰难的选择。现任总统乔·拜登致力于利用政府权力来提升民众福祉,尤其是身处底层的99%,而顶层1%的福祉最大化则是唐纳德·特朗普的关注。在一所豪华高尔夫球场主持日常事务(当他自己没有站在法庭上成为被告时)的唐纳德·特朗普已经沦为世界各地裙带资本家的捍卫者。

特朗普和拜登对于应当努力创造什么样的社会看法截然不同。在一种情况下,不诚实且具有社会破坏性的暴力和寻租将大行其道,而公众信任将继续崩塌,物质主义和贪婪则将最终胜出。而在另外一种情况下,民选官员和公务员将真诚致力于在信任和诚实的基础上建设一个更具创造力、更健康也更重视知识的社会。

当然,政治从来就没有所描述的那般纯粹。但没人能够否认,两位候选人对自由美好社会的构成看法截然不同。我们的经济体制反映并决定了我们是谁、以及我们能成为怎样的人。如果我们公开支持一个自私、厌恶女性的骗子——或者将这些视为轻微瑕疵而不予理会——我们的年轻人就会接受这样的信息,公职人员队伍最终会出现更多的无赖和机会主义者。我们社会将丧失信任,从而导致经济无法运行良好。

近期的民调结果显示,特朗普离开白宫仅仅三年后,公众就幸福地遗忘了其政府的混乱、无能和对法治的进攻。但我们只需看看候选人在这些问题上的具体立场就可以认识到,如果希望生活在重视所有公民并努力为其创造完整且令人满意生活的社会,那么选择应当是显而易见的。

Joseph E. Stiglitz, a Nobel laureate in economics and University Professor at Columbia University, is a former chief economist of the World Bank (1997-2000), chair of the US President’s Council of Economic Advisers, and co-chair of the High-Level Commission on Carbon Prices. He is Co-Chair of the Independent Commission for the Reform of International Corporate Taxation and was lead author of the 1995 IPCC Climate Assessment. He is the author, most recently, of The Road to Freedom: Economics and the Good Society (W. W. Norton & Company, Allen Lane, 2024).

May 28, 202407:55
Episode 1937 - June 1 - Tiếng Pháp - Bầu cử toàn cầu trong bóng tối của chủ nghĩa tân tự do - Vina Technology at AI time

Episode 1937 - June 1 - Tiếng Pháp - Bầu cử toàn cầu trong bóng tối của chủ nghĩa tân tự do - Vina Technology at AI time

Élections à travers le monde dans le sillage du néolibéralisme

Joseph E. Stiglitz. Project Syndicate. May 1, 2024.

Le nationalisme populiste progresse à travers le monde, souvent guidé par le pouvoir des dirigeants autoritaires. L’orthodoxie néolibérale – réduction de l’intervention de l’État, baisses d’impôts, déréglementation – qui s’est imposée dans les pays occidentaux il y a près de 40 ans était pourtant censée renforcer la démocratie, pas l’affaiblir. Qu’est-ce qui n’a pas fonctionné ?

La réponse à cette question est en partie économique : le néolibéralisme n’a tout simplement pas tenu ses promesses. Aux États-Unis et dans les autres économies développées qui l’ont adopté, la croissance du revenu réel par habitant (corrigé de l’inflation) entre 1980 et la pandémie de COVID-19 s’est révélée inférieure de 40 % à celle des 30 années précédentes. Pire encore, les revenus au milieu et au bas de l’échelle ont largement stagné, tandis qu’ils ont augmenté au sommet de la pyramide, et l’affaiblissement délibéré des protections sociales a produit davantage d’insécurité financière et économique.

Inquiets à juste titre que le changement climatique ne compromette leur avenir, les jeunes peuvent constater que les États sous l’emprise du néolibéralisme ne sont jamais parvenus à adopter des réglementations strictes contre la pollution (ni à s’attaquer à la crise des opioïdes ou à l’épidémie de diabète infantile, dans le cas des États-Unis). Ces échecs ne sont malheureusement pas surprenants. Le néolibéralisme reposait sur la croyance selon laquelle les marchés non réglementés constitueraient le moyen le plus efficace d’atteindre des résultats optimaux. Pourtant, au commencement même de l’ascension du néolibéralisme, les économistes avaient déjà établi que les marchés non réglementés n’étaient ni efficaces, ni stables, et encore moins de nature à générer une distribution socialement acceptable des revenus.

Les partisans du néolibéralisme n’ont jamais semblé reconnaître que l’expansion de la liberté des entreprises limitait celle du reste de la société. La liberté de polluer signifie la détérioration de la santé (voire la mort pour les asthmatiques), la multiplication des événements météorologiques extrêmes, ainsi que l’inhabitabilité de certains territoires. Des compromis sont évidemment toujours possibles, mais n’importe quelle société raisonnable conclurait que le droit de vivre l’emporte sur le prétendu droit de polluer.

Le néolibéralisme est également hostile à l’impôt, qu’il considère comme une atteinte à la liberté individuelle : chacun doit pouvoir jouir de ce qu’il a perçu, peu importe la manière dont ces gains ont été réalisés. Or, même lorsqu’ils perçoivent leurs revenus honnêtement, les partisans de cette vision échouent à comprendre que ces gains ont été rendus possibles par l’investissement de l’État dans les infrastructures, les technologies, l’éducation et la santé publique. Rarement prennent-ils une minute pour songer à ce qu’ils posséderaient s’ils étaient nés dans l’un des nombreux pays où l’État de droit n’existe pas (ou à quoi ressembleraient leurs portefeuilles si le gouvernement américain n’avait pas procédé aux investissements nécessaires à la création du vaccin contre le COVID-19).

Au lieu de cela, les plus redevables vis-à-vis de l’État sont souvent les premiers à oublier ce qu’il a fait pour eux. Où en seraient Elon Musk et Tesla si le département de l’Énergie du président Barack Obama ne leur avait pas octroyé un soutien financier de près d’un demi-milliard de dollars en 2010 ? « Les impôts sont ce que nous payons pour vivre dans une société civilisée », soulignait autrefois avec justesse le juge Oliver Wendell Holmes de la Cour suprême. Cela n’a pas changé : les impôts sont une nécessité pour établir l’État de droit, comme pour fournir tout autre bien public dont une société a besoin pour fonctionner au XXIe siècle.

Nous nous situons ici au-delà des simples compromis, dans la mesure où tous les individus

May 28, 202408:20
Episode 1936 - June 1 - Tiếng Anh - Bầu cử toàn cầu trong bóng tối của chủ nghĩa tân tự do - Vina Technology at AI time

Episode 1936 - June 1 - Tiếng Anh - Bầu cử toàn cầu trong bóng tối của chủ nghĩa tân tự do - Vina Technology at AI time

Global Elections in the Shadow of Neoliberalism

Joseph E. Stiglitz. Project Syndicate. May 1, 2024.

While scandals, culture wars, and threats to democracy dominate the headlines, the biggest issues in this super election year ultimately concern economic policies. After all, the rise of anti-democratic populist authoritarianism is itself the legacy of a misbegotten economic ideology.

Around the world, populist nationalism is on the rise, often shepherding to power authoritarian leaders. And yet the neoliberal orthodoxy – government downsizing, tax cuts, deregulation – that took hold some 40 years ago in the West was supposed to strengthen democracy, not weaken it. What went wrong?

Part of the answer is economic: neoliberalism simply did not deliver what it promised. In the United States and other advanced economies that embraced it, per capita real (inflation-adjusted) income growth between 1980 and the COVID-19 pandemic was 40% lower than in the preceding 30 years. Worse, incomes at the bottom and in the middle largely stagnated while those at the very top increased, and the deliberate weakening of social protections has produced greater financial and economic insecurity.

Rightly worried that climate change jeopardizes their future, young people can see that countries under the sway of neoliberalism have consistently failed to enact strong regulations against pollution (or, in the US, to address the opioid crisis and the epidemic of child diabetes). Sadly, these failures come as no surprise. Neoliberalism was predicated on the belief that unfettered markets are the most efficient means of achieving optimal outcomes. Yet even in the early days of neoliberalism’s ascendancy, economists had already established that unregulated markets are neither efficient nor stable, let alone conducive to generating a socially acceptable distribution of income.

Neoliberalism’s proponents never seemed to recognize that expanding the freedom of corporations curtails freedom across the rest of society. The freedom to pollute means worsening health (or even death, for those with asthma), more extreme weather, and uninhabitable land. There are always tradeoffs, of course; but any reasonable society would conclude that the right to live is more important than the spurious right to pollute.

Taxation is equally anathema to neoliberalism, which frames it as an affront to individual liberty: one has the right to keep whatever one earns, regardless of how one earns it. But even when they come by their income honestly, advocates of this view fail to recognize that what they earn was made possible by government investment in infrastructure, technology, education, and public health. Rarely do they pause to consider what they would have if they had been born in one of the many countries without the rule of law (or what their lives would look like if the US government had not made the investments that led to the COVID-19 vaccine).

Ironically, those most indebted to government are often the first to forget what government did for them. Where would Elon Musk and Tesla be if not for the near-half-billion-dollar lifeline they received from President Barack Obama’s Department of Energy in 2010? “Taxes are what we pay for civilized society,” the Supreme Court Justice Oliver Wendell Holmes famously observed. That hasn’t changed: taxes are what it takes to establish the rule of law or provide any of the other public goods that a twenty-first-century society needs to function.

Here, we go beyond mere tradeoffs, because everyone – including the rich – is made better off by an adequate supply of such goods. Coercion, in this sense, can be emancipatory. There is a broad consensus on the principle that if we are going to have essential goods, we have to pay for them, and that requires taxes.

Of course, advocates of smaller government would say that many expenditures should be cut, including government-managed pensions and publicly provided health care.

May 28, 202414:21
Episode 1935 - June 1 - Bầu cử toàn cầu trong bóng tối của chủ nghĩa tân tự do - Vina Technology at AI time

Episode 1935 - June 1 - Bầu cử toàn cầu trong bóng tối của chủ nghĩa tân tự do - Vina Technology at AI time

Bầu cử toàn cầu trong bóng tối của chủ nghĩa tân tự do

Joseph E. Stiglitz. Project Syndicate. Ngày 1 Tháng Năm, 2024. Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số. (Xin nghe giải thích them về ở phần cuối của bài này.)

Trong khi các vụ bê bối, chiến tranh văn hóa và các mối đe dọa đối với nền dân chủ chiếm hầu hết các tiêu đề truyền thông, các vấn đề lớn nhất trong năm siêu bầu cử này cuối cùng liên quan đến các chính sách kinh tế. Xét cho cùng, sự trỗi dậy của chủ nghĩa độc tài dân túy chống dân chủ tự nó là di sản của một hệ tư tưởng kinh tế sai lầm.

Trên khắp thế giới, chủ nghĩa dân tộc dân túy đang gia tăng, thường được hướng dẫn để nắm quyền lực cho các nhà lãnh đạo độc tài. Tuy nhiên, chính thống tân tự do - thu hẹp quy mô của chính phủ, cắt giảm thuế, bãi bỏ quy định - đã diễn ra khoảng 40 năm trước ở phương Tây được cho là sẽ củng cố nền dân chủ, chứ không phải làm suy yếu nó. Chuyện gì đã xảy ra?

Một phần của câu trả lời là kinh tế: chủ nghĩa tân tự do đơn giản là không cung cấp những gì nó đã hứa. Tại Hoa Kỳ và các nền kinh tế tiên tiến khác chấp nhận nó, tăng trưởng thu nhập thực tế bình quân đầu người (đã điều chỉnh lạm phát) từ năm 1980 đến đại dịch COVID-19 thấp hơn 40% so với 30 năm trước đó. Tệ hơn nữa, thu nhập của thành phần ở dưới cùng và ở giữa phần lớn bị trì trệ trong khi lớp thượng lưu tăng lên, và sự suy yếu có chủ ý của các biện pháp bảo trợ xã hội đã tạo ra sự bất an lớn hơn về tài chính và kinh tế.

Lo lắng đúng đắn rằng biến đổi khí hậu gây nguy hiểm cho tương lai của họ, những người trẻ tuổi có thể thấy rằng các quốc gia dưới sự thống trị của chủ nghĩa tân tự do đã liên tục thất bại trong việc ban hành các quy định mạnh mẽ chống ô nhiễm (hoặc, như ở Mỹ, để giải quyết cuộc khủng hoảng opioid và dịch bệnh tiểu đường ở trẻ em). Đáng buồn thay, những thất bại này không có gì đáng ngạc nhiên. Chủ nghĩa tân tự do được xác định dựa trên niềm tin rằng thị trường không bị kiểm soát là phương tiện hiệu quả nhất để đạt được kết quả tối ưu. Tuy nhiên, ngay cả trong những ngày đầu của chủ nghĩa tân tự do đang lên ngôi, các nhà kinh tế đã xác định rằng các thị trường không được kiểm soát không hiệu quả cũng không ổn định, chứ đừng nói đến việc tạo ra sự phân phối thu nhập được xã hội chấp nhận.

Những người ủng hộ chủ nghĩa tân tự do dường như không bao giờ nhận ra rằng việc mở rộng tự do của các tập đoàn sẽ hạn chế tự do trên toàn xã hội. Tự do gây ô nhiễm có nghĩa là sức khỏe xấu đi (hoặc thậm chí tử vong, đối với những người bị hen suyễn), thời tiết khắc nghiệt hơn và đất đai không thể ở được. Tất nhiên, luôn có sự đánh đổi; Nhưng bất kỳ xã hội hợp lý nào cũng sẽ kết luận rằng quyền sống quan trọng hơn là có quyền giả tạo gây ô nhiễm. [Trong cụm từ này, nó trái ngược với "quyền sống", nhấn mạnh rằng quyền cơ bản đối với một cuộc sống lành mạnh và an toàn nên được ưu tiên hơn bất kỳ tuyên bố vô căn cứ nào rằng mọi người hoặc các công ty có quyền gây ô nhiễm. Về cơ bản, tuyên bố lập luận rằng khi đánh đổi xã hội, một xã hội hợp lý sẽ ưu tiên bảo vệ cuộc sống và sức khỏe con người hơn là cho phép các hoạt động môi trường có hại. Quyền sống được coi là cố hữu và quan trọng, trong khi quyền gây ô nhiễm được coi là sai lầm và không thể biện minh được.]

Thuế cũng là sự nguyền rủa không kém đối với chủ nghĩa tân tự do, vốn đóng khung nó như một sự sỉ nhục đối với tự do cá nhân: người ta có quyền giữ bất cứ thứ gì mình kiếm được, bất kể người ta kiếm được nó bằng cách nào. Nhưng ngay cả khi họ đến bằng thu nhập của họ một cách trung thực, những người ủng hộ quan điểm này không nhận ra rằng những gì họ kiếm được có thể thực hiện được nhờ đầu tư của chính phủ vào cơ sở hạ tầng, công nghệ, giáo dục và y tế công cộng. Hiếm khi họ dừng lại để xem xét những gì họ sẽ có nếu họ được sinh ra ở một trong nhiều quốc gia không có luật pháp (hoặc cuộc sống của họ sẽ như thế nào nếu chính phủ Hoa Kỳ không thực hiện các khoản đầu tư dẫn đến vắc-xin COVID-19).

May 28, 202417:03
Episode 1934 - June 1 - Tiếng Anh - Tại sao Microsoft đang mở rộng đặt cược AI của mình cho PC - Vina Technology at AI time

Episode 1934 - June 1 - Tiếng Anh - Tại sao Microsoft đang mở rộng đặt cược AI của mình cho PC - Vina Technology at AI time

Why Microsoft Is Spreading Its AI Bets to PCs

Software giant’s stock has lagged behind peers as investors worry about AI’s costs—and time to payoff.

By Dan Gallagher. WSJ. May 22, 2024.

Microsoft has come a very long way from depending on personal computers for its livelihood. But the world’s most valuable company needs all the help it can get these days.

The software giant kicked off its annual Build developers conference this week with a focus on hardware. The wares on display were mostly new versions of the company’s Surface laptops and tablets designed with generative artificial-intelligence capabilities on the device. The new machines also use Qualcomm’s QCOM 4.26%increase; green up pointing triangle Snapdragon processors and an optimized version of Windows that together are designed to perform powerful AI-computing functions with smartphonelike battery life.

Microsoft’s early lead in AI now has the company feeling bold enough to challenge even Apple AAPL 1.66%increase; green up pointing triangle on its home turf.

“We’re going to outperform them,” Microsoft CEO Satya Nadella told The Wall Street Journal of his expectation for the new Surface devices against Apple’s Mac computers.

It is a tall order. Apple sold nearly $30 billion of Macs in the 12-month period that ended in March. Microsoft generated less than $5 billion in device revenue over the same period.

But Microsoft’s main mission these days is to get its AI assistant, known as Copilot, in front of as many users as it can. It is already doing so by adopting the technology across its powerful base of enterprise software services. But that can also be a slow process—one that depends on big companies’ signing major deals to deploy the Copilot tool and drive its use. Google, by contrast, told its own developers conference last week that it will be embedding its Gemini AI tool directly into its search engine, which powers more than 90% of the world’s internet searches.

The stock of Google’s parent, Alphabet GOOGL 0.83%increase; green up pointing triangle, has risen 5% since that conference, bringing its year-to-date gain to 27%. Meanwhile, Microsoft’s shares picked up less than 1% on Tuesday following the opening keynote of its Build conference, paring a nearly 2% morning gain ahead of the event. The stock is lagging behind its archrival’s year-to-date gain by more than 10 percentage points.

Microsoft is still worth about $3.2 trillion, which is about $1 trillion more than Google’s parent. The stock is also trading at a rich valuation of nearly 34 times forward earnings—17% above its five-year average and 47% over Alphabet’s multiple, according to FactSet data. Microsoft’s shares enjoyed a strong lift this past year following its aggressive move into AI, which included a close partnership with OpenAI.

But investors have become increasingly worried about the rising capital expenditures needed to power AI services and the potentially slow payoff those services can generate for tech giants whose existing businesses rival the gross domestic product of midsize countries. In a report over the weekend, Bernstein software analyst Mark Moerdler predicted that the first wave of generative AI deployment “will center around incremental functionalities for existing apps” such as Microsoft Office.

“More transformative, custom, and industry-centric apps would be part of a second wave, which could be out at least 1-2 years in the future,” he wrote.

Hence, Microsoft will do whatever it can to give Copilot more lift now, and that won’t stop with its own devices. The PC makers Dell Technologies, HP HPQ 0.31%increase; green up pointing triangle, Lenovo Group and others also are embracing on-device AI for their Windows-powered machines, with major launches coming later this year. In a note Tuesday, Vivek Arya of BofA Securities projected that annual sales of AI-enabled PCs will hit 127 million in 2027—a big number considering zero were sold last year.

One would hope Microsoft’s AI

May 28, 202404:22
Episode 1933 - June 1 - Tại sao Microsoft đang mở rộng đặt cược AI của mình cho PC - Vina Technology at AI time

Episode 1933 - June 1 - Tại sao Microsoft đang mở rộng đặt cược AI của mình cho PC - Vina Technology at AI time

Tại sao Microsoft đang mở rộng đặt cược AI của mình cho PC

Cổ phiếu của gã khổng lồ phần mềm đã tụt hậu so với các công ty cùng ngành khi các nhà đầu tư lo lắng về chi phí của AI và thời gian để trả nợ.

Dan Gallagher. WSJ. Ngày 22 tháng 5 năm 2024. Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số.

Microsoft đã đi một chặng đường rất dài từ việc phụ thuộc vào máy tính cá nhân để kiếm sống. Nhưng công ty có giá trị nhất thế giới cần tất cả sự giúp đỡ mà nó có thể nhận được trong những ngày này.

Gã khổng lồ phần mềm đã khởi động hội nghị các nhà phát triển Build hàng năm trong tuần này với trọng tâm là phần cứng. Các sản phẩm được trưng bày chủ yếu là các phiên bản mới của máy tính xách tay và máy tính bảng Surface của công ty được thiết kế với khả năng trí tuệ nhân tạo trên thiết bị. Các máy mới cũng sử dụng QCOM của Qualcomm tăng 4,26%; Bộ vi xử lý Snapdragon tam giác trỏ màu xanh lá cây và phiên bản Windows được tối ưu hóa cùng nhau được thiết kế để thực hiện các chức năng điện toán AI mạnh mẽ với thời lượng pin giống như điện thoại thông minh.

Sự dẫn đầu ban đầu của Microsoft trong lĩnh vực AI giờ đây khiến công ty cảm thấy đủ táo bạo để thách thức ngay cả mức tăng AAPL 1,66% của Apple.

"Chúng tôi sẽ vượt trội hơn họ", Giám đốc điều hành Microsoft Satya Nadella nói với The Wall Street Journal về kỳ vọng của ông đối với các thiết bị Surface mới so với máy tính Mac của Apple.

Đó là một nhận định sai. Apple đã bán được gần 30 tỷ USD máy Mac trong khoảng thời gian 12 tháng kết thúc vào tháng 3. Microsoft tạo ra ít hơn 5 tỷ đô la doanh thu thiết bị so với cùng kỳ.

Nhưng nhiệm vụ chính của Microsoft ngày nay là đưa trợ lý AI của mình, được gọi là Copilot, đến với càng nhiều người dùng càng tốt. Nó đã làm như vậy bằng cách áp dụng công nghệ trên cơ sở mạnh mẽ của các dịch vụ phần mềm doanh nghiệp. Nhưng đó cũng có thể là một quá trình chậm chạp - một quá trình phụ thuộc vào việc các công ty lớn ký các thỏa thuận lớn để triển khai công cụ Copilot và thúc đẩy việc sử dụng nó. Ngược lại, Google nói với hội nghị các nhà phát triển của mình vào tuần trước rằng họ sẽ nhúng công cụ Gemini AI trực tiếp vào công cụ tìm kiếm của mình, cung cấp năng lượng cho hơn 90% tìm kiếm trên internet trên thế giới.

Cổ phiếu của công ty mẹ Google, Alphabet đã tăng 5% kể từ hội nghị đó, đưa mức tăng từ đầu năm đến nay lên 27%. Trong khi đó, cổ phiếu của Microsoft đã tăng ít hơn 1% vào thứ Ba sau bài phát biểu khai mạc hội nghị Build, giảm gần 2% mức tăng vào buổi sáng trước sự kiện này. Cổ phiếu này đang tụt hậu so với mức tăng từ đầu năm đến nay của đối thủ truyền kiếp hơn 10 điểm phần trăm.

Microsoft vẫn có giá trị khoảng 3,2 nghìn tỷ USD, cao hơn khoảng 1 nghìn tỷ USD so với công ty mẹ của Google. Cổ phiếu này cũng đang giao dịch ở mức định giá cao gần 34 lần thu nhập kỳ hạn - cao hơn 17% so với mức trung bình 5 năm và 47% so với bội số của Alphabet, theo dữ liệu của FactSet. Cổ phiếu của Microsoft đã tăng mạnh trong năm qua sau khi chuyển sang AI, bao gồm quan hệ đối tác chặt chẽ với OpenAI.

Nhưng các nhà đầu tư ngày càng lo lắng về chi phí vốn gia tăng cần thiết để cung cấp năng lượng cho các dịch vụ AI và khả năng thu hồi chậm mà các dịch vụ đó có thể tạo ra cho những gã khổng lồ công nghệ có doanh nghiệp hiện tại cạnh tranh với tổng sản phẩm quốc nội của các nước cỡ trung bình. Trong một báo cáo vào cuối tuần qua, nhà phân tích phần mềm Mark Moerdler của Bernstein dự đoán rằng làn sóng triển khai AI đầu tiên "sẽ tập trung vào các chức năng gia tăng cho các ứng dụng hiện có" như Microsoft Office.

"Các ứng dụng biến đổi, tùy chỉnh và tập trung vào ngành sẽ là một phần của làn sóng thứ hai, có thể ra mắt ít nhất 1-2 năm trong tương lai", ông viết.

Do đó, Microsoft sẽ làm bất cứ điều gì có thể để cung cấp cho Copilot nhiều động lực hơn ngay bây giờ và điều đó sẽ không dừng lại với các thiết bị của riêng mình. Các nhà sản xuất PC Dell Technologies, HP HPQ tăng 0,31%; Tập đoàn Lenovo và các công ty khác cũng đang áp dụng AI trên thiết bị

May 28, 202404:57
Episode 1932 - June 1 - Tiếng Anh - Công nhân công nghệ đang trang bị lại kiến thức cho sự bùng nổ của AI - Vina Technology at AI time

Episode 1932 - June 1 - Tiếng Anh - Công nhân công nghệ đang trang bị lại kiến thức cho sự bùng nổ của AI - Vina Technology at AI time

Tech Workers Retool for Artificial-Intelligence Boom

Generative-AI frenzy leads to unbalanced labor market in technology sector

By Katherine Bindley. WSJ. May 26, 2024.

Tech Workers Retool for Artificial-Intelligence Boom

Generative-AI frenzy leads to unbalanced labor market in technology sector

Tech workers are feverishly retooling their skill sets for a time when every company suddenly wants to be an artificial-intelligence company—and every worker feels the need for AI chops.

To try to make that happen, workers are attempting to bridge the gap between what they know and what they need to know, adding skills and knowledge to pivot into this game-changing technology. Tech companies, meanwhile, are refashioning themselves as AI companies and trying to remold their workforces to be more AI proficient.

“I’ve been leading with an AI-tailored resume for the last two to three months,” says Asif Dhanani, 31 years old, of Irvine, Calif., who was laid off from his job as a technical product manager at Amazon in March.

Dhanani has landed plenty of interviews for AI product manager roles, but he hasn’t received any offers. He has worked with large language models but not since 2016; the technology has changed significantly since then. He also isn’t entirely convinced that companies know what they are looking for. On top of that, two different hiring managers told him they were sifting through hundreds of applicants.

His next step is a two-week online AI boot camp from Deep Atlas costing $6,800. “The skills building for me is a worthwhile investment,” he says, even if it doesn’t help land him a job.

The tech labor market is in an unbalanced state. There is demand for a specific type of tier-one AI talent—namely those who have the technical knowledge or experience working with large language models, or LLMs, that fuel chatbots with the ability to generate content. There are companies seeking candidates with those skills, but not enough workers who are qualified to do them.

Then there is everyone else. Thousands of people have been laid off in the past few years, and many of those who remain employed are dealing with new management styles, reorganizations and microcuts, as more resources get shifted into AI. Those workers are now taking courses in AI, adding buzzwords to their résumés and competing in an increasingly crowded field.

Tony Phillips, co-founder of the Deep Atlas boot camp, says he has noticed a significant increase in the level of urgency that tech workers feel about the need to upskill. Deep Atlas recently added another five slots to their summer AI boot camp.

“People started to see the writing on the wall that their jobs really could be obsolete,” he says. “You’re probably not going to get replaced by AI. You’re going to be replaced by someone who knows AI and does your job.”

As of December, the number of LinkedIn members adding skills like Copilot and ChatGPT to their profiles was 142 times as great as in the year prior, according to the 2024 Work Trend Index from Microsoft and LinkedIn. The survey also found that job posts on LinkedIn that mention AI receive 17% more applications compared with non-AI roles.

One sales manager with more than a decade of experience says his software-as-a-service company has been through several reorganizations, more-intense performance management reviews and several small rounds of layoffs. He applied to jobs at OpenAI and Anthropic earlier this year but didn’t get a response from either. He reckons he needed to have AI-specific experience in sales to get in the door.

Tech firms are investing heavily in AI, but they aren’t going on hiring sprees as they did years ago: New tech job postings fell from an average of around 308,000 a month in 2019 to 180,000 a month as of April, according to the tech trade association CompTIA.

Jobs in AI and machine learning as a percentage of all U.S. tech job postings are growing, but they still aren’t a large portion of the overall tech job market.


May 28, 202408:01
Episode 1931 - June 1 - Công nhân công nghệ đang trang bị lại kiến thức cho sự bùng nổ của AI - Vina Technology at AI time

Episode 1931 - June 1 - Công nhân công nghệ đang trang bị lại kiến thức cho sự bùng nổ của AI - Vina Technology at AI time

Công nhân công nghệ đang trang bị lại kiến thức cho sự bùng nổ của AI

Katherine Bindley. WSJ. Ngày 26 tháng 5 năm 2024. Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số.

Công nhân công nghệ trang bị lại kiến thức cho sự bùng nổ trí tuệ nhân tạo

Sự điên cuồng của AI dẫn đến thị trường lao động mất cân bằng trong lĩnh vực công nghệ

Nhân viên công nghệ đang sốt sắng trang bị lại bộ kỹ năng của họ cho một thời gian khi mọi công ty đột nhiên muốn trở thành một công ty trí tuệ nhân tạo và mọi công nhân đều cảm thấy cần phải có AI.

Để cố gắng thực hiện điều đó, người lao động đang cố gắng thu hẹp khoảng cách giữa những gì họ biết và những gì họ cần biết, bổ sung các kỹ năng và kiến thức để xoay quanh công nghệ thay đổi cuộc chơi này. Trong khi đó, các công ty công nghệ đang tự đổi mới thành các công ty AI và cố gắng định hình lại lực lượng lao động của họ để thành thạo AI hơn.

"Tôi đã cập nhật bản lý lịch cho phù hợp với AI trong hai đến ba tháng qua", Asif Dhanani, 31 tuổi, ở Irvine, California, người đã bị sa thải khỏi công việc quản lý sản phẩm kỹ thuật tại Amazon vào tháng Ba.

Dhanani đã tham gia rất nhiều cuộc phỏng vấn cho vai trò quản lý sản phẩm AI, nhưng ông ấy đã không nhận được bất kỳ lời đề nghị nào. Ông đã làm việc với các mô hình ngôn ngữ lớn nhưng không phải từ năm 2016; Công nghệ đã thay đổi đáng kể kể từ đó. Ông cũng không hoàn toàn bị thuyết phục rằng các công ty biết những gì họ đang tìm kiếm. Trên hết, hai người quản lý tuyển dụng khác nhau nói với ông rằng họ đang sàng lọc hàng trăm ứng viên.

Bước tiếp theo của ông là một trại khởi động AI trực tuyến kéo dài hai tuần từ Deep Atlas có giá 6.800 đô la. "Xây dựng kỹ năng đối với tôi là một khoản đầu tư đáng giá," anh nói, ngay cả khi nó không giúp ông có được một công việc.

Thị trường lao động công nghệ đang trong tình trạng mất cân bằng. Có nhu cầu về một loại tài năng AI cấp một cụ thể - cụ thể là những người có kiến thức kỹ thuật hoặc kinh nghiệm làm việc với các mô hình ngôn ngữ lớn, cung cấp cho chatbot khả năng tạo nội dung. Có những công ty tìm kiếm ứng viên có những kỹ năng đó, nhưng không đủ công nhân đủ điều kiện đáp ứng nhu cầu.

Sau đó là những người khác. Hàng ngàn người đã bị sa thải trong vài năm qua và nhiều người trong số những người vẫn làm việc đang đối phó với các phong cách quản lý mới, tổ chức lại và cắt giảm vi mô, khi nhiều nguồn lực được chuyển sang AI. Những công nhân này hiện đang tham gia các khóa học về AI, thêm các từ thông dụng vào sơ yếu lý lịch của họ và cạnh tranh trong một lĩnh vực ngày càng đông đúc.

Tony Phillips, đồng sáng lập trại khởi động Deep Atlas, cho biết ông đã nhận thấy sự gia tăng đáng kể về mức độ cấp bách mà các nhân viên công nghệ cảm thấy về sự cần thiết phải nâng cao kỹ năng. Deep Atlas gần đây đã thêm năm vị trí khác vào trại khởi động AI mùa hè của họ.

"Mọi người bắt đầu thấy rõ ràng rằng công việc của họ thực sự có thể đã lỗi thời", ông nói. "Có lẽ bạn sẽ không bị thay thế bởi AI. Bạn sẽ bị thay thế bởi một người biết AI và thực hiện công việc của bạn."

Tính đến tháng 12, số lượng thành viên LinkedIn bổ sung các kỹ năng như Copilot và ChatGPT vào hồ sơ của họ cao gấp 142 lần so với năm trước, theo Chỉ số xu hướng công việc năm 2024 từ Microsoft và LinkedIn. Cuộc khảo sát cũng cho thấy các bài đăng việc làm trên LinkedIn đề cập đến AI nhận được nhiều đơn đăng ký hơn 17% so với các vai trò không phải AI.

Một giám đốc bán hàng với hơn một thập kỷ kinh nghiệm cho biết công ty phần mềm như một dịch vụ của ông đã trải qua nhiều lần tổ chức lại, đánh giá quản lý hiệu suất mạnh mẽ hơn và một số đợt sa thải nhỏ. Anh đã nộp đơn xin việc tại OpenAI và Anthropic vào đầu năm nay nhưng không nhận được phản hồi từ cả hai. Anh ấy cho rằng anh ấy cần phải có kinh nghiệm cụ thể về AI trong bán hàng để được những công ty này chọn

Các công ty công nghệ đang đầu tư mạnh vào AI, nhưng họ sẽ không tiếp tục tuyển dụng như nhiều năm trước: Các bài đăng việc làm công nghệ mới đã giảm từ mức trung bình khoảng 308.000 mỗi tháng

May 28, 202409:09
Episode 1930 - May 31 - Tiếng Anh - Tổng quan về AI mới của Google Tìm kiếm - Vina Technology at AI time

Episode 1930 - May 31 - Tiếng Anh - Tổng quan về AI mới của Google Tìm kiếm - Vina Technology at AI time

Google Search’s New AI Overviews Will Soon Have Ads

Paresh Dave. WIRED. May 21, 2024.

Google is set to start mixing ads into its new AI-generated search answers. It’s a test of how the company’s biggest revenue stream can adapt to the age of generative AI.

Last week Google introduced a radical shake-up of search that presents users with AI-generated answers to their queries. Now the company says it will soon start including ads inside those AI Overviews, as the automatic answers are called.

Google on Tuesday announced plans to test search and shopping ads in the AI summaries, a move that could extend its dominance in search advertising into a new era. Although Google rapidly rolled out AI Overviews to all US English users last week after announcing the feature at its I/O developer conference, it’s unclear how widely or quickly ads will start appearing.

Screenshots released by Google show how a user asking how to get wrinkles out of clothes might get an AI-generated summary of tips sourced from the web, with a carousel of ads underneath for sprays that purport to help crisp up a wardrobe.

Google’s AI Overviews are meant to keep users from shifting to alternatives such as ChatGPT or the startup Perplexity, which use AI-generated text to answer many questions traditionally thrown at Google. How and when Google would integrate ads into AI Overviews has been a significant question over the company’s ChatGPT catch-up strategy. Search ads are the company's largest revenue generator, and even subtle changes in ad placements or design can spur big swings in Google’s revenue.

Google shared few details about its new Overview ad format in its announcement Tuesday. Ads “will have the opportunity to appear within the AI Overview in a section clearly labeled as ‘sponsored’ when they’re relevant to both the query and the information in the AI Overview,” Vidhya Srinivasan, Google’s vice president and general Manager for ads, wrote in a blog post.

AI Overview will draw on ads from advertisers’ existing campaigns, meaning they can neither completely opt out of the experiment nor have to adapt the settings and designs of their ads to appear in the feature. “There’s no action needed from advertisers,” Srinivasan wrote.

Google said last year when it started experimenting with AI-generated answers in search that ads for specific products would be integrated into the feature. In one example at the time, it showed a sponsored option at the top of an AI-generated list of kids’ hiking backpacks. Google says the early testing showed that users found ads above and below AI summaries helpful. Google’s much smaller rival Bing shows product ads in its Bing Copilot search chatbot, but in tests on Monday, WIRED didn’t trigger any ads in Bing’s competitor to AI Overview.

Every few years a technology such as ChatGPT emerges that gets media and investors wondering whether it will finally be the innovation that topples Google’s search ad business, which has been one of the most profitable and consistent enterprises on the internet for over two decades. In calls with investors over the past year, Google CEO Sundar Pichai has downplayed the risks to his ads business from new search experiences. He has voiced confidence that the company can work through shifts as it has before, including threats from smartphones and Amazon.

It helps that the growth of Google’s cloud and hardware businesses are making the company’s revenue less dependent on search. In 2019, more than 60 percent of revenue for Google parent Alphabet stemmed from search ads. That figure has steadily fallen to about 57 percent last year. Overall profit in 2023 reached a near record of about $74 billion.

No matter how ads in AI Overviews perform, conventional search ads will remain important to Google. For one, AI-generated answers appear only on select queries when its algorithms determine a summary could be helpful. That means Google will be serving up plenty of results pages with real estate

May 26, 202405:34
Episode 1929 - May 31 - Tổng quan về AI (AI Overviews) mới của Google Tìm kiếm - Vina Technology at AI time

Episode 1929 - May 31 - Tổng quan về AI (AI Overviews) mới của Google Tìm kiếm - Vina Technology at AI time

Tổng quan về AI (AI Overviews) mới của Google Tìm kiếm sẽ sớm có quảng cáo

Paresh Dave. WIRED. Ngày 21 tháng 5 năm 2024. Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số.

Google được cho biết đã bắt đầu trộn quảng cáo vào các câu trả lời tìm kiếm mới do AI tạo ra. Đó là một thử nghiệm về cách dòng doanh thu lớn nhất của công ty có thể thích ứng với thời đại của AI tạo nội dung.

Tuần trước, Google đã giới thiệu một sự thay đổi triệt để của tìm kiếm cung cấp cho người dùng câu trả lời do AI tạo ra cho các truy vấn của họ. Giờ đây, công ty cho biết họ sẽ sớm bắt đầu đưa quảng cáo vào bên trong các Tổng quan về AI (AI Overviews) đó, vì các câu trả lời tự động được gọi.

Google hôm thứ Ba đã công bố kế hoạch thử nghiệm quảng cáo tìm kiếm và mua sắm trong bản tóm tắt AI, một động thái có thể mở rộng sự thống trị của mình trong quảng cáo tìm kiếm sang một kỷ nguyên mới. Mặc dù Google đã nhanh chóng triển khai Tổng quan về AI (AI Overviews) cho tất cả người dùng tiếng Anh Mỹ vào tuần trước sau khi công bố tính năng này tại hội nghị nhà phát triển I / O, nhưng không rõ quảng cáo sẽ bắt đầu xuất hiện rộng rãi hay nhanh chóng như thế nào.

Ảnh chụp màn hình do Google phát hành cho thấy cách người dùng hỏi cách xóa nếp nhăn trên quần áo có thể nhận được bản tóm tắt các mẹo do AI tạo ra có nguồn gốc từ web, với một băng chuyền quảng cáo bên dưới cho thuốc xịt có mục đích giúp làm sắc nét tủ quần áo.

Tổng quan về AI (AI Overviews) của Google nhằm ngăn người dùng chuyển sang các lựa chọn thay thế như ChatGPT hoặc công ty khởi nghiệp Perplexity, sử dụng văn bản do AI tạo ra để trả lời nhiều câu hỏi truyền thống được đưa ra cho Google. Làm thế nào và khi nào Google sẽ tích hợp quảng cáo vào AI Tổng quan là một câu hỏi quan trọng trong chiến lược bắt kịp ChatGPT của công ty. Quảng cáo tìm kiếm là công cụ tạo doanh thu lớn nhất của công ty và ngay cả những thay đổi tinh tế trong vị trí đặt quảng cáo hoặc thiết kế cũng có thể thúc đẩy sự thay đổi lớn trong doanh thu của Google.

Google đã chia sẻ một vài chi tiết về định dạng quảng cáo Tổng quan mới của mình trong thông báo hôm thứ Ba. Quảng cáo "sẽ có cơ hội xuất hiện trong Tổng quan về AI trong một phần được gắn nhãn rõ ràng là 'được tài trợ' khi chúng có liên quan đến cả truy vấn và thông tin trong Tổng quan về AI", Vidhya Srinivasan, phó chủ tịch và tổng giám đốc quảng cáo của Google, đã viết trong một bài đăng trên blog.

Tổng quan về AI sẽ dựa trên quảng cáo từ các chiến dịch hiện tại của nhà quảng cáo, có nghĩa là họ không thể hoàn toàn chọn không tham gia thử nghiệm cũng như không phải điều chỉnh cài đặt và thiết kế quảng cáo của mình để xuất hiện trong tính năng. "Không có hành động nào cần thiết từ các nhà quảng cáo", Srinivasan viết.

Google cho biết năm ngoái khi họ bắt đầu thử nghiệm các câu trả lời do AI tạo ra trong tìm kiếm rằng quảng cáo cho các sản phẩm cụ thể sẽ được tích hợp vào tính năng này. Trong một ví dụ vào thời điểm đó, nó cho thấy một tùy chọn được tài trợ ở đầu danh sách ba lô đi bộ đường dài của trẻ em do AI tạo ra. Google cho biết thử nghiệm ban đầu cho thấy người dùng thấy quảng cáo trên và dưới tóm tắt AI hữu ích. Đối thủ nhỏ hơn nhiều của Google là Bing hiển thị quảng cáo sản phẩm trong chatbot tìm kiếm Bing Copilot, nhưng trong các thử nghiệm vào thứ Hai, WIRED đã không kích hoạt bất kỳ quảng cáo nào trong đối thủ cạnh tranh của Bing với AI Overview

Cứ sau vài năm, một công nghệ như ChatGPT lại xuất hiện khiến giới truyền thông và các nhà đầu tư tự hỏi liệu cuối cùng nó có phải là sự đổi mới lật đổ hoạt động kinh doanh quảng cáo tìm kiếm của Google, một trong những doanh nghiệp có lợi nhuận và nhất quán nhất trên internet trong hơn hai thập kỷ hay không. Trong các cuộc gọi với các nhà đầu tư trong năm qua, Giám đốc điều hành Google Sundar Pichai đã hạ thấp rủi ro đối với hoạt động kinh doanh quảng cáo của mình từ những trải nghiệm tìm kiếm mới. Ông đã lên tiếng tin tưởng rằng công ty có thể làm việc thông qua các thay đổi như trước đây, bao gồm các mối đe

May 26, 202406:48
Episode 1928 - May 31 - Tiếng Anh - Nhóm Thượng viện khuyến nghị chi hàng chục tỷ đô la cho AI - Vina Technology at AI time

Episode 1928 - May 31 - Tiếng Anh - Nhóm Thượng viện khuyến nghị chi hàng chục tỷ đô la cho AI - Vina Technology at AI time

Senate Group Recommends Spending Tens of Billions of Dollars on AI

Bipartisan group publishes road map for artificial-intelligence policy to stay ahead of China, while addressing the technology’s potential harm

By Katy Stech Ferek and Deepa Seetharaman. WSJ. May 15, 2024.

Bipartisan group publishes road map for artificial-intelligence policy to stay ahead of China, while addressing the technology’s potential harm

A bipartisan Senate group recommended tens of billions of dollars in new federal spending to guide the safe development of artificial intelligence and keep the U.S. ahead of rivals—particularly China.

The push came in a report made public Wednesday by the AI Working Group, a quartet of lawmakers led by Senate Majority Leader Chuck Schumer (D., N.Y.). The document, billed as a road map for AI policy, includes a long list of recommendations for encouraging AI while also addressing concerns about the technology’s potential for harm.

The senators recommended raising federal spending for nondefense AI innovation as quickly as possible to at least $32 billion annually—though they indicated that ramping up to that level could take years. That spending would cover initiatives ranging from assisting design and manufacturing of high-end AI chips to local election initiatives to a series of “AI Grand Challenge” programs to encourage innovation.

Schumer, speaking to reporters on Tuesday evening, called the $32 billion investment “a major recommendation in the policy road map to keep our companies, our universities, our workers at the cutting edge and cement America’s dominance in AI.”

“This is a time in which the dollars we put into this particular investment will pay dividends for the taxpayers of this country long term,” said Sen. Mike Rounds (R., S.D.), estimating that China significantly outspends the U.S. on AI development.

The Humane AI Pin, Rabbit R1 and Ray-Ban Meta smart glasses take AI out of your smartphone and put it in a dedicated gadget. WSJ’s Joanna Stern put them through a series of tests. Photo illustration: Nayon Cho for The Wall Street Journal

The recommendation released Wednesday is meant to guide lawmakers who are wrestling with the way AI touches issues such as the military, healthcare and education.

The Senate group incorporated input from a series of nine AI forums starting last autumn involving some 150 AI experts, including tech chief executives, scholars, advocates and labor representatives. Those discussions weighed how Congress can best craft legislation and budget for AI and other tech tools that have the potential to reshape society. The AI Working Group’s other members are Sens. Todd Young (R., Ind.) and Martin Heinrich (D., N.M.).

Tools such as ChatGPT that can generate humanlike writing, computer code and images have ignited global interest in developing AI systems. Companies are spending billions of dollars to develop and test AI features. This surge of investment has sparked a debate in Silicon Valley, Washington and beyond about how the technology will change the global economy and if it will supplant workers and intensify societal problems such as misinformation.

The senators said that laws need to be kept up-to-date with technology, but also that AI developers need to ensure their systems abide by the law. They noted that the workings of some AI systems are so opaque that they are referred to as “black boxes,” which they said might “raise questions about whether companies with such systems are appropriately abiding by existing laws.”

May 26, 202403:37
Episode 1927 - May 31 - Nhóm Thượng viện khuyến nghị chi hàng chục tỷ đô la cho AI - Vina Technology at AI time - M25T3

Episode 1927 - May 31 - Nhóm Thượng viện khuyến nghị chi hàng chục tỷ đô la cho AI - Vina Technology at AI time - M25T3

Nhóm Thượng viện khuyến nghị chi hàng chục tỷ đô la cho AI

Tác giả: Katy Stech Ferek và Deepa Seetharaman. WSJ. ngày 15 tháng 5 năm 2024. Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số.

Nhóm lưỡng đảng công bố lộ trình cho chính sách trí tuệ nhân tạo để đi trước Trung Quốc, đồng thời giải quyết tác hại tiềm tàng của công nghệ

Một nhóm Thượng viện lưỡng đảng đã đề xuất hàng chục tỷ đô la chi tiêu liên bang mới để hướng dẫn sự phát triển an toàn của trí tuệ nhân tạo và giữ cho Hoa Kỳ đi trước các đối thủ - đặc biệt là Trung Quốc.

Sự thúc đẩy được đưa ra trong một báo cáo được công bố hôm thứ Tư bởi Nhóm làm việc AI, một bộ tứ các nhà lập pháp do Lãnh đạo Đa số Thượng viện Chuck Schumer. Tài liệu, được quảng cáo là lộ trình cho chính sách AI, bao gồm một danh sách dài các khuyến nghị để khuyến khích AI đồng thời giải quyết những lo ngại về khả năng gây hại của công nghệ.

Các thượng nghị sĩ đề nghị tăng chi tiêu liên bang cho đổi mới AI phi quốc phòng càng nhanh càng tốt lên ít nhất 32 tỷ đô la hàng năm - mặc dù họ chỉ ra rằng việc tăng lên đến mức đó có thể mất nhiều năm. Khoản chi tiêu đó sẽ bao gồm các sáng kiến khác nhau, từ hỗ trợ thiết kế và sản xuất chip AI cao cấp đến các sáng kiến bầu cử địa phương đến một loạt các chương trình "Thử thách lớn về AI - AI Grand Challenge" để khuyến khích đổi mới.

Schumer, phát biểu với các phóng viên vào tối thứ Ba, gọi khoản đầu tư 32 tỷ đô la là "một khuyến nghị chính trong lộ trình chính sách để giữ cho các công ty, trường đại học, công nhân của chúng ta luôn đi đầu và củng cố sự thống trị của Mỹ trong AI".

"Đây là thời điểm mà số đô la chúng tôi đưa vào khoản đầu tư đặc biệt này sẽ trả cổ tức cho người nộp thuế của đất nước này trong dài hạn", Thượng nghị sĩ Mike Rounds, ước tính rằng Trung Quốc chi tiêu đáng kể so với Hoa Kỳ về phát triển AI.

Khuyến nghị được đưa ra hôm thứ Tư nhằm hướng dẫn các nhà lập pháp đang vật lộn với cách AI chạm vào các vấn đề như quân đội, chăm sóc sức khỏe và giáo dục.

Nhóm Thượng viện đã kết hợp đầu vào từ một loạt chín diễn đàn AI bắt đầu từ mùa thu năm ngoái liên quan đến khoảng 150 chuyên gia AI, bao gồm giám đốc điều hành công nghệ, học giả, người ủng hộ và đại diện lao động. Những cuộc thảo luận đó đã cân nhắc làm thế nào Quốc hội có thể xây dựng luật pháp và ngân sách tốt nhất cho AI và các công cụ công nghệ khác có tiềm năng định hình lại xã hội. Các thành viên khác của Nhóm công tác AI là Thượng nghị sĩ Todd Young và Martin Heinrich.

Các công cụ như ChatGPT có thể tạo ra chữ viết, mã máy tính và hình ảnh giống như con người đã khơi dậy sự quan tâm toàn cầu trong việc phát triển các hệ thống AI. Các công ty đang chi hàng tỷ đô la để phát triển và thử nghiệm các tính năng AI. Sự gia tăng đầu tư này đã gây ra một cuộc tranh luận ở Thung lũng Silicon, Washington và hơn thế nữa về cách công nghệ sẽ thay đổi nền kinh tế toàn cầu và liệu nó có thay thế người lao động và tăng cường các vấn đề xã hội như thông tin sai lệch hay không.

Các thượng nghị sĩ nói rằng luật pháp cần được cập nhật với công nghệ, nhưng các nhà phát triển AI cũng cần đảm bảo hệ thống của họ tuân thủ luật pháp. Họ lưu ý rằng hoạt động của một số hệ thống AI không rõ ràng đến mức chúng được gọi là "hộp đen", điều mà họ nói có thể "đặt ra câu hỏi về việc liệu các công ty có hệ thống như vậy có tuân thủ luật hiện hành một cách thích hợp hay không".



May 26, 202403:30
Episode 1926 - May 31 - Tiếng Anh - Nantucket đang rơi xuống đại dương với tốc độ đáng báo động - Vina Technology at AI time

Episode 1926 - May 31 - Tiếng Anh - Nantucket đang rơi xuống đại dương với tốc độ đáng báo động - Vina Technology at AI time

Nantucket are falling into the ocean at an alarming rate — but the wealthy won't stop buying

Madeline Berg and Dan Latu. Business Insider. May 24, 2024.

This month, residents of the island of Nantucket, a storybook New England coastal retreat located 30 miles off the coast of Cape Cod, gathered for their annual town meeting and quietly acknowledged a mounting eco-crisis.

Erosion, which is typical for most islands, is now increasing in severity, threatening to reshape Nantucket's downtown and wash away the homes sitting on its edge. Permanent residents formally approved the designation of the entire island as an "Islands Coastal Resilience District," with hopes that state-backed help could follow.

A lot of real estate value is at stake. Over the past two centuries, Nantucket has gone from a whaling town to a hippie refuge to a holiday hot spot for billionaires. Its year-round population hovers at about 14,000, but over the summer, it balloons to 80,000 as the likes of Blackstone's Steve Schwarzman and former Google CEO Eric Schmidt, who own picturesque grey-shingled mansions lined with blooming hydrangea, descend on the island in their private jets, sporting Nantucket red and boat shoes.

But a changing climate is exacerbating the ever-present threat of erosion, and it's claiming more victims. Last month, real estate investor Barry Sternlicht had to demolish his home to prevent it from falling into the ocean; others with valuable beachfront properties have paid millions to move their houses further away from the sandy coast.

And it's only expected to worsen in the "foreseeable future," C. Elizabeth Gibson, the town manager, wrote in the 2021 Coastal Resilience Plan. "The risks for Nantucket, a maritime community, are significant."

In total, sea level rise, coastal flooding, and erosion are estimated to cause over $3.4 billion in cumulative damages to Nantucket over the next five decades, according to the plan.

But demand for properties has remained sky-high on the idyllic island. Last year's median home sale price was $3.2 million, up from $1.9 million five years prior, according to data from local firm Fisher Real Estate. Twenty-seven percent of the homes sold cost more than $5 million.

"The concentration of wealth is quite stunning on Nantucket, and it keeps escalating," Bruce Percelay, a real estate developer and the publisher of the island's N Magazine, who has been vacationing on Nantucket for nearly all of his life, told Business Insider. "To use a well-worn phrase, come hell or high water, people are still buying multimillion-dollar homes on Nantucket."

The Grey Lady is only getting greyer

Year-round Nantucket resident and real estate broker Edward Sanford's family has been visiting the island for generations, starting in the 1920s. As a child, he'd visit his grandfather's cottage on the south shore, which has been prone to erosion for hundreds of years.

"We called it the shack. It had a handpump for plumbing and no electricity," he told BI. "That building today is probably two or three hundred yards into the ocean."

It seems that everyone with a connection to Nantucket knows someone who knows someone who has been affected by erosion or rising sea levels. The island is, as residents like to remind you, nothing more than a sandbar, and erosion was causing destruction long before terms like climate change were part of the common vernacular

"If there was no global warming or there was no rising sea levels, storms happen, and waves lap against the land," Percelay said. "When the land is made of sand, it erodes, and it is hard to tell whether this would happen under different circumstances, but it is not a new condition." (Last year, Percelay garnered attention for clashing with a climate protester at a Nantucket cocktail party, something for which he has since apologized. Percelay told BI that his real estate development company has won awards for the application of green technology and that his Nantucket house is fully solar

May 26, 202413:52
Episode 1925 - May 31 - Nantucket đang rơi xuống đại dương với tốc độ đáng báo động - Vina Technology at AI time

Episode 1925 - May 31 - Nantucket đang rơi xuống đại dương với tốc độ đáng báo động - Vina Technology at AI time

Nantucket đang rơi xuống đại dương với tốc độ đáng báo động - nhưng những người giàu có sẽ không ngừng mua

Madeline Berg và Dan Latu. Business Insider. ngày 24 tháng 5 năm 2024. Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số.

Ở Nantucket, Massachusetts, xói mòn đang gia tăng và mực nước biển đang dâng cao. Tuy nhiên, nhu cầu về những ngôi nhà trị giá hàng triệu đô la vẫn ở mức cao ngất ngưởng.

Trong tháng này, cư dân của đảo Nantucket, một nơi ẩn dật ven biển New England nằm cách bờ biển Cape Cod 30 dặm, đã tập trung cho cuộc họp thị trấn hàng năm của họ và lặng lẽ thừa nhận một cuộc khủng hoảng sinh thái đang gia tăng.

Xói mòn, điển hình cho hầu hết các hòn đảo, hiện đang gia tăng mức độ nghiêm trọng, đe dọa định hình lại trung tâm thành phố Nantucket và cuốn trôi những ngôi nhà nằm ở rìa của nó. Thường trú nhân chính thức phê duyệt việc chỉ định toàn bộ hòn đảo là "Khu phục hồi quần đảo ven biển ", với hy vọng rằng sự giúp đỡ được nhà nước hậu thuẫn có thể theo sau quyết định.

Rất nhiều giá trị bất động sản đang bị đe dọa. Trong hai thế kỷ qua, Nantucket đã đi từ một thị trấn săn bắt cá voi đến một nơi ẩn náu hippie đến một điểm nóng kỳ nghỉ cho các tỷ phú. Dân số quanh năm của nó dao động ở mức khoảng 14.000, nhưng vào mùa hè, nó tăng lên 80.000 khi những người như Steve Schwarzman của Blackstone và cựu Giám đốc điều hành Google Eric Schmidt, những người sở hữu những biệt thự lợp màu xám đẹp như tranh vẽ với hoa cẩm tú cầu nở rộ, đáp xuống đảo bằng máy bay phản lực riêng của họ, mang giày màu đỏ và giày thuyền Nantucket.

Nhưng khí hậu thay đổi đang làm trầm trọng thêm mối đe dọa xói mòn luôn hiện hữu và nó đang cướp đi nhiều nạn nhân hơn. Tháng trước, nhà đầu tư bất động sản Barry Sternlicht đã phải phá hủy ngôi nhà của mình để ngăn nó rơi xuống biển; Những người khác có tài sản bên bờ biển có giá trị đã trả hàng triệu đô la để chuyển nhà của họ ra xa bờ biển cát.

Và nó chỉ dự kiến sẽ trở nên tồi tệ hơn trong "tương lai gần", C. Elizabeth Gibson, người quản lý thị trấn, đã viết trong Kế hoạch phục hồi ven biển năm 2021. "Những rủi ro đối với Nantucket, một cộng đồng hàng hải, là rất đáng kể."

Tổng cộng, mực nước biển dâng, lũ lụt ven biển và xói mòn ước tính gây ra thiệt hại tích lũy hơn 3,4 tỷ đô la cho Nantucket trong năm thập kỷ tới, theo kế hoạch.

Nhưng nhu cầu về bất động sản vẫn cao ngất trời trên hòn đảo bình dị này. Giá bán nhà trung bình năm ngoái là 3,2 triệu đô la, tăng từ 1,9 triệu đô la năm năm trước, theo dữ liệu từ công ty địa phương Fisher Real Estate. Hai mươi bảy phần trăm số nhà được bán có giá hơn 5 triệu đô la.

"Sự tập trung của cải khá đáng kinh ngạc ở Nantucket, và nó tiếp tục leo thang", Bruce Percelay, một nhà phát triển bất động sản và nhà xuất bản của Tạp chí N của hòn đảo, người đã đi nghỉ ở Nantucket gần như cả đời, nói với Business Insider. "Để sử dụng một cụm từ quen thuộc, đến địa ngục hay nước cao, mọi người vẫn đang mua những ngôi nhà trị giá hàng triệu đô la ở Nantucket."

Hùm xám chỉ càng ngày càng xám xịt

Cư dân Nantucket quanh năm và gia đình môi giới bất động sản Edward Sanford đã đến thăm hòn đảo này qua nhiều thế hệ, bắt đầu từ những năm 1920. Khi còn nhỏ, anh thường đến thăm ngôi nhà của ông nội ở bờ biển phía nam, nơi dễ bị xói mòn trong hàng trăm năm.

"Chúng tôi gọi đó là lán. Nó có một máy bơm tay cho hệ thống ống nước và không có điện", ông nói. "Tòa nhà đó ngày nay có lẽ cách đại dương hai hoặc ba trăm thước"

Dường như tất cả mọi người có mối liên hệ với Nantucket đều biết ai đó đã bị ảnh hưởng bởi xói mòn hoặc mực nước biển dâng cao. Hòn đảo, như cư dân muốn nhắc nhở bạn, không gì khác hơn là một bãi cát, và xói mòn đã gây ra sự hủy diệt từ lâu trước khi các thuật ngữ như biến đổi khí hậu là một phần của tiếng địa phương phổ biến

"Nếu không có sự nóng lên toàn cầu hoặc không có mực nước biển dâng cao, bão sẽ xảy ra và sóng vỗ vào đất liền", Percelay nói. "Khi đất được làm bằng cát, nó bị xói mòn, và thật khó để nói liệu điều này có xảy ra trong những hoàn cảnh khác

May 26, 202416:21
Episode 1924 - May 31 - Tiếng Anh - Đối với các công ty AI ngốn dữ liệu, internet quá nhỏ - Vina Technology at AI time

Episode 1924 - May 31 - Tiếng Anh - Đối với các công ty AI ngốn dữ liệu, internet quá nhỏ - Vina Technology at AI time

For Data-Guzzling AI Companies, the Internet Is Too Small

By Deepa Seetharaman. WSJ. April 1, 2024.

Firms such as OpenAI and Anthropic are working to find enough information to train next-generation artificial-intelligence models

"Data-Guzzling" in this context refers to the insatiable appetite that AI companies have for large amounts of data. These companies require vast quantities of data to train their machine learning models and improve their algorithms. The phrase suggests that AI companies are consuming data at such a high rate that even the extensive amount of information available on the internet is insufficient to meet their needs. This highlights the enormous scale of data consumption by AI firms and the constant demand for more data to enhance the performance and capabilities of their AI systems.

Companies racing to develop more powerful artificial intelligence are rapidly nearing a new problem: The internet might be too small for their plans.

Ever more powerful systems developed by OpenAI, Google and others require larger oceans of information to learn from. That demand is straining the available pool of quality public data online at the same time that some data owners are blocking access to AI companies.

Some executives and researchers say the industry’s need for high-quality text data could outstrip supply within two years, potentially slowing AI’s development.

AI companies are hunting for untapped information sources, and rethinking how they train these systems. OpenAI, the maker of ChatGPT, has discussed training its next model, GPT-5, on transcriptions of public YouTube videos, people familiar with the matter said.

Companies also are experimenting with using AI-generated, or synthetic, data as training material—an approach many researchers say could actually cause crippling malfunctions.

These efforts are often secret, because executives think solutions could be a competitive advantage.

The data shortage “is a frontier research problem,” said Ari Morcos, an AI researcher who worked at Meta Platforms and Google’s DeepMind unit before founding DatologyAI last year. His company, whose backers include a number of AI pioneers, builds tools to improve data selection, which could help companies train AI models for cheaper. “There is no established way of doing this.”

Data is among several essential AI resources in short supply. The chips needed to run what are called large-language models behind ChatGPT, Google’s Gemini and other AI bots also are scarce. And industry leaders worry about a dearth of data centers and the electricity needed to power them.

AI language models are built using text vacuumed up from the internet, including scientific research, news articles and Wikipedia entries. That material is broken into tokens—words and parts of words that the models use to learn how to formulate humanlike expressions.

Generally, AI models become more capable the more data they train on. OpenAI bet big on this approach, helping it become the most prominent AI company in the world.

OpenAI Made Me Crazy Videos—Then the CTO Answered (Most of) My Questions

Sora, OpenAI’s new text-to-video AI model, can create realistic scenes. In an exclusive interview, WSJ’s Joanna Stern sat down with the company’s CTO, Mira Murati, who explained how it works but ducked questions about how the model was trained. Photo illustration: Preston Jessee for The Wall Street Journal

OpenAI doesn’t disclose details of the training material for its current most-advanced language model, called GPT-4, which has set the standard for advanced generative AI systems.

But Pablo Villalobos, who studies artificial intelligence for research institute Epoch, estimated that GPT-4 was trained on as many as 12 trillion tokens. Based on a computer-science principle called the Chinchilla scaling laws, an AI system like GPT-5 would need 60 trillion to 100 trillion tokens of data if researchers continued to follow the current growth trajectory, Villalobos and other

May 26, 202410:06
Episode 1923 - May 31 - Đối với các công ty AI ngốn dữ liệu, internet quá nhỏ - Vina Technology at AI time

Episode 1923 - May 31 - Đối với các công ty AI ngốn dữ liệu, internet quá nhỏ - Vina Technology at AI time

Đối với các công ty AI ngốn dữ liệu, internet quá nhỏ

Bởi Deepa Seetharaman. WSJ. ngày 1 tháng 4 năm 2024. Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số.

Các công ty như OpenAI và Anthropic đang làm việc để tìm đủ thông tin để đào tạo các mô hình trí tuệ nhân tạo thế hệ tiếp theo.

"Ngốn dữ liệu" trong bối cảnh này đề cập đến sự thèm ăn vô độ mà các công ty AI có đối với một lượng lớn dữ liệu. Các công ty này yêu cầu số lượng lớn dữ liệu để đào tạo các mô hình học máy và cải thiện thuật toán của họ. Cụm từ này cho thấy các công ty AI đang tiêu thụ dữ liệu với tốc độ cao đến mức ngay cả lượng thông tin rộng lớn có sẵn trên internet cũng không đủ để đáp ứng nhu cầu của họ. Điều này làm nổi bật quy mô tiêu thụ dữ liệu khổng lồ của các công ty AI và nhu cầu liên tục về nhiều dữ liệu hơn để nâng cao hiệu suất và khả năng của các hệ thống AI của họ.

"Ngốn dữ liệu" trong bối cảnh này đề cập đến sự thèm ăn vô độ mà các công ty AI có đối với một lượng lớn dữ liệu. Các công ty này yêu cầu số lượng lớn dữ liệu để đào tạo các mô hình học máy và cải thiện thuật toán của họ. Cụm từ này cho thấy các công ty AI đang tiêu thụ dữ liệu với tốc độ cao đến mức ngay cả lượng thông tin rộng lớn có sẵn trên internet cũng không đủ để đáp ứng nhu cầu của họ. Điều này làm nổi bật quy mô tiêu thụ dữ liệu khổng lồ của các công ty AI và nhu cầu liên tục về nhiều dữ liệu hơn để nâng cao hiệu suất và khả năng của các hệ thống AI của họ.

Các công ty chạy đua để phát triển trí tuệ nhân tạo mạnh mẽ hơn đang nhanh chóng tiến gần đến một vấn đề mới: Internet có thể quá nhỏ so với kế hoạch của họ.

Các hệ thống mạnh mẽ hơn bao giờ hết được phát triển bởi OpenAI, Google và những người khác đòi hỏi đại dương thông tin lớn hơn để học hỏi. Nhu cầu đó đang làm căng thẳng nhóm dữ liệu công cộng chất lượng có sẵn trực tuyến cùng lúc với một số chủ sở hữu dữ liệu đang chặn quyền truy cập vào các công ty AI.

Một số giám đốc điều hành và nhà nghiên cứu cho biết nhu cầu về dữ liệu văn bản chất lượng cao của ngành có thể vượt xa nguồn cung trong vòng hai năm, có khả năng làm chậm sự phát triển của AI.

Các công ty AI đang săn lùng các nguồn thông tin chưa được khai thác và suy nghĩ lại về cách họ đào tạo các hệ thống này. OpenAI, nhà sản xuất ChatGPT, đã thảo luận về việc đào tạo mô hình tiếp theo của mình, GPT-5, về phiên âm các video công khai trên YouTube, những người quen thuộc với vấn đề này cho biết.

Các công ty cũng đang thử nghiệm sử dụng dữ liệu do AI tạo nội dung, hoặc tổng hợp, làm tài liệu đào tạo - một cách tiếp cận mà nhiều nhà nghiên cứu cho biết thực sự có thể gây ra sự cố tê liệt.

Những nỗ lực này thường là bí mật, bởi vì các giám đốc điều hành nghĩ rằng các giải pháp có thể là một lợi thế cạnh tranh.

Sự thiếu hụt dữ liệu "là một vấn đề nghiên cứu thách thức cao độ ", Ari Morcos, một nhà nghiên cứu AI từng làm việc tại Meta Platforms và đơn vị DeepMind của Google trước khi thành lập DatologyAI vào năm ngoái, cho biết. Công ty của ông, có những người ủng hộ bao gồm một số nhà tiên phong AI, xây dựng các công cụ để cải thiện lựa chọn dữ liệu, có thể giúp các công ty đào tạo các mô hình AI với giá rẻ hơn. "Không có cách nào được thiết lập để làm điều này."

Dữ liệu là một trong những tài nguyên AI thiết yếu bị thiếu hụt. Các chip cần thiết để chạy những gì được gọi là mô hình ngôn ngữ lớn đằng sau ChatGPT, Gemini của Google và các bot AI khác cũng rất khan hiếm. Và các nhà lãnh đạo ngành công nghiệp lo lắng về sự thiếu hụt các trung tâm dữ liệu và điện cần thiết để cung cấp năng lượng cho chúng.

Các mô hình ngôn ngữ AI được xây dựng bằng cách sử dụng văn bản được thu thập từ internet, bao gồm nghiên cứu khoa học, bài báo và các mục Wikipedia. Tài liệu đó được chia thành các mã thông báo — các từ và các phần của từ mà các mô hình sử dụng để học cách hình thành các biểu thức giống như con người.

Nói chung, các mô hình AI trở nên có khả năng hơn khi chúng được đào tạo với càng nhiều dữ liệu. OpenAI đặt cược lớn vào cách tiếp cận này, giúp nó trở thành

May 26, 202413:49
Episode 1922 - May 31 - Tiếng Anh - AI mang đến cho thị trường thiết bị doanh nghiệp điều gì đó thú vị - Vina Technology at AI time

Episode 1922 - May 31 - Tiếng Anh - AI mang đến cho thị trường thiết bị doanh nghiệp điều gì đó thú vị - Vina Technology at AI time

AI Gives Enterprise Device Market Something to Be Excited About

But CIOs aren’t quite convinced that everyone needs an AI-enabled PC just yet

By Isabelle Bousquette. WSJ. April 19, 2024.

The biggest innovation in years has come for personal computers as manufacturers integrate chips that enable them to run large scale AI models directly on the device. But how quickly chief information officers will want to start snapping up the pricier PCs remains to be seen.

Chip manufacturers including Qualcomm and AMD and PC manufacturers such as Lenovo and Dell over the last year have all announced new products to enable AI computing at the individual device level. They say running AI models on the PC itself—rather than the cloud—will reduce latency, minimize cloud bills, offer greater security and ultimately aid CIOs in deploying AI for use cases such as code generation and content creation.

“The PC space hasn’t seen innovation and any disruption in many years,” said Kedar Kondap, Senior Vice President and General Manager of Compute and Gaming at Qualcomm and head of the company’s AI PC business.

But some CIOs remain unconvinced on whether the new devices are worth the cost. Some say they will make the investment first for just technical roles like data scientists. Others say they will make the investment for even regular business users—but only when it’s already time for a refresh in the regular device replacement cycle.

“I’d say it’s rather costly,” said Elizabeth Hackenson, CIO of digital automation and energy management company Schneider Electric, adding she would only consider AI-enabled PCs for members of its products group or AI group.

That could change, she added, if the costs come down over time.

Jay Ferro, executive vice president and chief information, technology and product officer at clinical research data-management company Clario, also said he would initially consider the new PCs for roles like data scientists, engineers, or digital content creators.

“Waiting, even a bit, will give us more mature options, avoidance of early adopter costs, greater choice, and more solid case studies,” he added. At the same time, “the allure of AI-enhanced PCs is strong.”

Dell said its AI-enabled PCs are only marginally more expensive, and pointed to one AI-enabled 14-inch laptop it is selling for $1,339, compared with a non AI-enabled 14-inch laptop it sells for $1,109. Lenovo’s Chief Technology Officer of PCs and Smart Devices Daryl Cromer said while AI-enabled PCs are more expensive, “for the value, it will be very compelling.”

Advancements on the software side plus the integration of so-called NPUs, or neural processing units, are what make it practical to run large language models directly on devices rather than the costly cloud setup, manufacturers say. (NPUs aren’t to be confused with the coveted GPU chips powering data centers).

The cost of running AI in the cloud has been notoriously expensive, and the ability to do that computing has been constrained by the limitations of today’s existing physical infrastructure.

With AI PCs, “You get the benefit of security, privacy, immediacy that you get from obviously running stuff on device,” said Qualcomm’s Kondap.

To be sure, some large AI models are still too big to actually run on a device, and will likely continue to run on the cloud or a hybrid cloud and on-device setup, he said.

“One advantage of AI PCs would be to eliminate the need to transmit sensitive data to the cloud for processing,” said Jason James, CIO of retail software developer Aptos. He added that computing locally could better secure data and reduce the burden on the cloud and time to upload. “While we do not currently have an urgent use case to replace PCs with AI PCs, we will be watching closely,” he said.

Enterprise spending on devices, including PCs and mobile phones for workers, plateaued a decade ago, with today’s spending primarily driven by price changes and replacement cycles, said John-David Lovelock,

May 26, 202405:26
Episode 1921 - May 31 - AI mang đến cho thị trường thiết bị doanh nghiệp điều gì đó thú vị - Vina Technology at AI time

Episode 1921 - May 31 - AI mang đến cho thị trường thiết bị doanh nghiệp điều gì đó thú vị - Vina Technology at AI time

AI mang đến cho thị trường thiết bị doanh nghiệp điều gì đó thú vị

Nhưng các CIO không hoàn toàn bị thuyết phục rằng mọi người đều cần một PC hỗ trợ AI

Tác giả: Isabelle Bousquette. WSJ. Ngày 19 tháng 4 năm 2024.

Sự đổi mới lớn nhất trong nhiều năm đã đến với máy tính cá nhân khi các nhà sản xuất tích hợp chip cho phép họ chạy các mô hình AI quy mô lớn trực tiếp trên thiết bị. Nhưng các giám đốc thông tin sẽ bắt đầu muốn mua những chiếc PC đắt tiền hơn nhanh như thế nào, vẫn còn phải chờ xem.

Các nhà sản xuất chip bao gồm Qualcomm và AMD và các nhà sản xuất PC như Lenovo và Dell trong năm ngoái đều đã công bố các sản phẩm mới cho phép tính toán AI ở cấp độ thiết bị riêng lẻ. Họ nói rằng việc chạy các mô hình AI trên chính PC — thay vì đám mây — sẽ giảm độ trễ, giảm thiểu tiền trả cho việc sử dụng đám mây, cung cấp bảo mật cao hơn và cuối cùng hỗ trợ các CIO triển khai AI cho các trường hợp sử dụng như tạo mã và tạo nội dung.

"Lĩnh vực PC đã không chứng kiến sự đổi mới và bất kỳ sự đột phá nào trong nhiều năm", Kedar Kondap, Phó chủ tịch cấp cao và Tổng giám đốc tính toán và chơi game tại Qualcomm và là người đứng đầu bộ phận kinh doanh PC AI của công ty cho biết.

Nhưng một số CIO vẫn không bị thuyết phục về việc liệu các thiết bị mới có đáng giá hay không. Một số người nói rằng họ sẽ đầu tư trước tiên chỉ cho các vai trò kỹ thuật như các nhà khoa học dữ liệu. Những người khác nói rằng họ sẽ đầu tư cho ngay cả người dùng doanh nghiệp thông thường — nhưng chỉ khi đã đến lúc làm mới chu kỳ thay thế thiết bị thông thường.

"Tôi muốn nói rằng nó khá tốn kém", Elizabeth Hackenson, CIO của công ty quản lý năng lượng và tự động hóa kỹ thuật số Schneider Electric cho biết, đồng thời cho biết thêm rằng cô sẽ chỉ xem xét các PC hỗ trợ AI cho các thành viên của nhóm sản phẩm hoặc nhóm AI.

Điều đó có thể thay đổi, cô nói thêm, nếu chi phí giảm theo thời gian.

Jay Ferro, phó chủ tịch điều hành kiêm giám đốc thông tin, công nghệ và sản phẩm tại công ty quản lý dữ liệu nghiên cứu lâm sàng Clario, cũng cho biết ban đầu ông sẽ xem xét các PC mới cho các vai trò như nhà khoa học dữ liệu, kỹ sư hoặc người sáng tạo nội dung kỹ thuật số.

"Chờ đợi, dù chỉ một thời gian ngắn, sẽ cho chúng ta nhiều lựa chọn trưởng thành hơn, tránh được chi phí chấp nhận sớm, nhiều lựa chọn hơn và các nghiên cứu điển hình vững chắc hơn", ông nói thêm. Đương nhiên, "sức hấp dẫn của PC được tăng cường AI là mạnh mẽ".

Dell cho biết PC hỗ trợ AI của họ chỉ đắt hơn một chút và chỉ ra một máy tính xách tay 14 inch hỗ trợ AI mà họ đang bán với giá 1.339 đô la, so với máy tính xách tay 14 inch không hỗ trợ AI mà họ bán với giá 1.109 đô la. Giám đốc công nghệ PC và thiết bị thông minh của Lenovo, Daryl Cromer cho biết mặc dù PC hỗ trợ AI đắt hơn, nhưng "về giá trị, nó sẽ rất hấp dẫn".

Những tiến bộ về mặt phần mềm cộng với sự tích hợp của cái gọi là đơn vị xử lý thần kinh (NPU), là những gì làm cho nó thực tế để chạy các mô hình ngôn ngữ lớn trực tiếp trên các thiết bị thay vì thiết lập đám mây tốn kém, các nhà sản xuất cho biết. (NPU không nên nhầm lẫn với các chip GPU đáng thèm muốn cung cấp năng lượng cho các trung tâm dữ liệu).

Chi phí chạy AI trên đám mây nổi tiếng là đắt đỏ và khả năng thực hiện tính toán đó đã bị hạn chế bởi những hạn chế của cơ sở hạ tầng vật lý hiện có ngày nay.

Với máy tính AI, "Bạn nhận được lợi ích về bảo mật, quyền riêng tư, tính trực tiếp mà bạn nhận được từ việc chạy nội dung rõ ràng trên thiết bị", Kondap của Qualcomm cho biết.

Để chắc chắn, một số mô hình AI lớn vẫn còn quá lớn để thực sự chạy trên một thiết bị và có thể sẽ tiếp tục chạy trên đám mây hoặc đám mây lai và thiết lập trên thiết bị, ông nói.

"Một lợi thế của máy tính AI sẽ là loại bỏ nhu cầu truyền dữ liệu nhạy cảm lên đám mây để xử lý", Jason James, CIO của nhà phát triển phần mềm bán lẻ Aptos cho biết. Ông nói thêm rằng điện toán cục bộ có thể bảo mật dữ liệu tốt hơn và giảm gánh nặng cho đám mây và thời gian tải lên/xuống. "Mặc dù chúng tôi hiện không có trường hợp sử dụng

May 26, 202406:17
Episode 1920 - May 30 - Tiếng Đức - - Đừng tin vào sự cường điệu của AI - Vina Technology at AI time

Episode 1920 - May 30 - Tiếng Đức - - Đừng tin vào sự cường điệu của AI - Vina Technology at AI time

Schenken Sie dem KI-Hype keinen Glauben

Daron Acemoglu. Project Syndicate. May 21, 2024

Nach Aussagen von Führungskräften aus Technologieunternehmen und vielen Kommentatoren und Wissenschaftlern steht die künstliche Intelligenz kurz davor, die Welt, so wie wir sie kennen, durch beispiellose Produktivitätszuwächse zu revolutionieren. Während einige glauben, dass die Maschinen bald alles können werden, was Menschen können, und ein neues Zeitalter grenzenlosen Wohlstands einläuten werden, sind andere Prognosen zumindest geerdeter. Goldman Sachs zum Beispiel prognostiziert, dass die generative KI das globale BIP während des kommenden Jahrzehnts um 7 % steigern wird, und das McKinsey Global Institute erwartet einen Anstieg der jährlichen BIP-Wachstumsrate bis 2040 um 3–4 Prozentpunkte. Die Zeitschrift The Economist sieht in der KI eine Goldgrube für Fabrikarbeiter.

Ist das realistisch? Wie ich in einem kürzlich veröffentlichten wissenschaftlichen Aufsatz angemerkt habe, sind die Aussichten viel unsicherer, als die meisten Prognosen und Daumenschätzungen nahelegen. Doch während es weitgehend unmöglich ist, mit Zuversicht Prognosen darüber anzustellen, was die KI in 20 oder 30 Jahren tun wird: Über das nächste Jahrzehnt lassen sich Aussagen treffen, weil die meisten dieser kurzfristigen wirtschaftlichen Auswirkungen zwangsläufig bestehende Technologien und daran vorgenommene Verbesserungen betreffen.

Es ist vernünftig, anzunehmen, dass die größten Auswirkungen der KI aus der Automatisierung einiger Aufgaben und aus der Steigerung der Produktivität der Arbeitnehmer in einigen Berufen herrühren werden. Die Wirtschaftstheorie bietet gewisse Hinweise für die Einschätzung dieser Gesamtauswirkungen. Laut dem (nach dem Ökonomen Charles Hulten benannten) Hulten-Theorem sind die Gesamtauswirkungen auf die sogenannte „totale Faktorproduktivität“ (TFP) schlicht das Produkt des Anteils der Aufgaben, die automatisiert werden, multipliziert mit den durchschnittlichen Kosteneinsparungen.

Während sich die durchschnittlichen Kosteneinsparungen schwer einschätzen lassen und je nach Aktivität variieren werden, gibt es bereits einige sorgfältige Untersuchungen über die Auswirkungen der KI auf bestimmte Aufgaben. So haben etwa Shakked Noy und Whitney Zhang die Auswirkungen von ChatGPT auf simple schriftliche Aufgaben (wie die Zusammenfassung von Dokumenten oder die Abfassung routinemäßiger Zuschussanträge oder Marketingmaterialien) untersucht, während Erik Brynjolfsson, Danielle Li und Lindsey Raymond den Einsatz von KI-Assistenten beim Kundendienst bewertet haben. Zusammengenommen legen diese Untersuchungen nahe, dass die gegenwärtig verfügbaren generativen KI-Tools zu durchschnittlichen Einsparungen bei den Arbeitskosten von 27 % und zu Gesamtkosteneinsparungen von 14,4 % führen.

Was nun ist mit dem Anteil der Aufgaben, die durch die KI und verwandte Technologien beeinflusst werden? Gestützt auf die Zahlen aus aktuellen Studien gehe ich davon aus, dass dieser bei etwa 4,6 % liegt, was nahelegt, dass die KI die TFP über zehn Jahre nur um 0,66 % oder um 0,06 % jährlich steigern wird. Natürlich könnte die Zunahme des BIP-Wachstums etwas größer ausfallen und womöglich im Bereich zwischen 1–1,5 % liegen, weil die KI zudem einen Anstieg der Investitionen auslösen wird.

Diese Zahlen sind viel niedriger als die von Goldman Sachs und McKinsey. Um jene höheren Werte zu erreichen, müssen Sie entweder die Produktivitätszuwächse auf Mikroebene steigern oder davon ausgehen, dass viele weitere Aufgaben innerhalb der Volkswirtschaft betroffen sein werden. Doch keines dieser beiden Szenarien erscheint plausibel. Einsparungen bei den Arbeitskosten von deutlich über 27 % fallen nicht nur aus der von bestehenden Studien angebotenen Spanne heraus; sie stehen auch nicht im Einklang mit den beobachteten Auswirkungen anderer, noch vielversprechenderer Technologien. So scheint etwa die Transformation einiger Industriesektoren durch Industrieroboter die Arbeitskosten dort um

May 24, 202410:35
Episode 1919 - May 30 - Tiếng Pháp - Đừng tin vào sự cường điệu của AI - Vina Technology at AI time

Episode 1919 - May 30 - Tiếng Pháp - Đừng tin vào sự cường điệu của AI - Vina Technology at AI time

Ne croyez pas au battage médiatique sur l'IA

Daron Acemoglu. Project Syndicate. May 21, 2024

Selon les leaders du secteur de la technologie et de nombreux experts et universitaires, l'intelligence artificielle est sur le point de transformer le monde tel que nous le connaissons, grâce à des gains de productivité sans précédent. Si certains pensent que les machines feront bientôt tout ce que les humains peuvent faire, inaugurant ainsi une nouvelle ère de prospérité illimitée, d'autres prédictions sont au moins plus fondées. Par exemple, Goldman Sachs prévoit que l'IA générative augmentera le PIB mondial de 7 % au cours de la prochaine décennie, et le McKinsey Global Institute prévoit que le taux de croissance annuel du PIB pourrait augmenter de 3 à 4 points de pourcentage d'ici à 2040. Pour sa part, The Economist s'attend à ce que l'IA crée une manne pour les cols bleus.

Est-ce réaliste ? Comme je l'indique dans un article récent, les perspectives sont beaucoup plus incertaines que ne le suggèrent la plupart des prévisions et des estimations. Néanmoins, s'il est pratiquement impossible de prédire avec certitude les effets de l'IA dans 20 ou 30 ans, on peut dire quelque chose à propos de la prochaine décennie, car la plupart de ces effets économiques à court terme concerneront forcément des technologies existantes et les améliorations qui leur sont apportées.

Il est raisonnable de supposer que l'impact le plus important de l'IA proviendra de l'automatisation de certaines tâches et de l'amélioration de la productivité de certains travailleurs dans un certain nombre de professions. La théorie économique fournit des indications pour évaluer ces effets globaux. Selon le théorème de Hulten (du nom de l'économiste Charles Hulten), les effets globaux sur la "productivité totale des facteurs" (PTF) sont simplement le produit de la part des tâches automatisées par les économies de coûts moyennes.

Bien que les économies moyennes soient difficiles à estimer et varient en fonction de l'activité, des études approfondies ont déjà été menées sur les effets de l'IA sur certaines tâches. Par exemple, Shakked Noy et Whitney Zhang ont examiné l'impact de ChatGPT sur des tâches de rédaction simples (telles que le résumé de documents ou la rédaction de propositions de subventions ou de documents de marketing), tandis qu'Erik Brynjolfsson, Danielle Li et Lindsey Raymond ont évalué l’utilisation d'assistants d'IA dans le service à la clientèle. Dans l'ensemble, cette recherche suggère que les outils d'IA générative actuellement disponibles permettent de réaliser des économies moyennes de 27 % sur les coûts de main-d'œuvre et de 14,4 % sur les coûts globaux.

Qu'en est-il de la part des tâches qui seront affectées par l'IA et les technologies connexes ? En utilisant des chiffres tirés d'études récentes, je l'estime à environ 4,6 %, ce qui signifie que l'IA n'augmentera la PTF que de 0,66 % sur dix ans, ou de 0,06 % par an. Bien entendu, étant donné que l'IA entraînera également un boom des investissements, l'augmentation de la croissance du PIB pourrait être un peu plus importante, peut-être de l'ordre de 1 à 1,5 %.

Ces chiffres sont bien inférieurs à ceux de Goldman Sachs et de McKinsey. Pour obtenir ces chiffres plus élevés, il faut soit augmenter les gains de productivité au niveau microéconomique, soit supposer que beaucoup plus de tâches dans l'économie seront affectées. Or, aucun de ces scénarios ne semble plausible. Des économies de coûts de main-d'œuvre largement supérieures à 27 % ne se situent pas seulement en dehors de la fourchette proposée par les études existantes ; elles ne correspondent pas non plus aux effets observés pour d'autres technologies encore plus prometteuses. Par exemple, les robots industriels ont transformé certains secteurs manufacturiers et semblent avoir réduit les coûts de main-d'œuvre d'environ 30 %.

De même, il est peu probable que nous observions un remplacement d’une part beaucoup plus élevée que 4,6 % des tâches

May 24, 202408:41
Episode 1918 - May 30 - Tiếng Anh - Đừng tin vào sự cường điệu của AI - Vina Technology at AI time

Episode 1918 - May 30 - Tiếng Anh - Đừng tin vào sự cường điệu của AI - Vina Technology at AI time

Don’t Believe the AI Hype

Daron Acemoglu. Project Syndicate. May 21, 2024

If you listen to tech industry leaders, business-sector forecasters, and much of the media, you may believe that recent advances in generative AI will soon bring extraordinary productivity benefits, revolutionizing life as we know it. Yet neither economic theory nor the data support such exuberant forecasts.

According to tech leaders and many pundits and academics, artificial intelligence is poised to transform the world as we know it through unprecedented productivity gains. While some believe that machines soon will do everything humans can do, ushering in a new age of boundless prosperity, other predictions are at least more grounded. For example, Goldman Sachs predicts that generative AI will boost global GDP by 7% over the next decade, and the McKinsey Global Institute anticipates that the annual GDP growth rate could increase by 3-4 percentage points between now and 2040. For its part, The Economist expects that AI will create a blue-collar bonanza.

Is this realistic? As I note in a recent paper, the outlook is far more uncertain than most forecasts and guesstimates suggest. Still, while it is basically impossible to predict with any confidence what AI will do in 20 or 30 years, one can say something about the next decade, because most of these near-term economic effects must involve existing technologies and improvements to them.

It is reasonable to suppose that AI’s biggest impact will come from automating some tasks and making some workers in some occupations more productive. Economic theory provides some guidance for assessing these aggregate effects. According to Hulten’s theorem (named for economist Charles Hulten), aggregate “total factor productivity” (TFP) effects are simply the product of the share of tasks that are automated multiplied by the average cost savings.

While average cost savings are difficult to estimate and will vary by activity, there have already been some careful studies of AI’s effects on certain tasks. For example, Shakked Noy and Whitney Zhang have examined the impact of ChatGPT on simple writing tasks (such as summarizing documents or writing routine grant proposals or marketing material), while Erik Brynjolfsson, Danielle Li, and Lindsey Raymond have assessed the use of AI assistants in customer service. Taken together, this research suggests that currently available generative-AI tools yield average labor-cost savings of 27% and overall cost savings of 14.4%.

What about the share of tasks that will be affected by AI and related technologies? Using numbers from recent studies, I estimate this to be around 4.6%, implying that AI will increase TFP by only 0.66% over ten years, or by 0.06% annually. Of course, since AI will also drive an investment boom, the increase in GDP growth could be a little larger, perhaps in the 1-1.5% range.

These figures are much smaller than the ones from Goldman Sachs and McKinsey. If you want to get those bigger numbers, you either must boost the productivity gains at the micro level or assume that many more tasks in the economy will be affected. But neither scenario seems plausible. Labor-cost savings far above 27% not only fall out of the range offered by existing studies; they also do not align with the observed effects of other, even more promising technologies. For example, industrial robots have transformed some manufacturing sectors, and they appear to have reduced labor costs by about 30%.

Similarly, we are unlikely to see far more than 4.6% of tasks being taken over, because AI is nowhere close to being able to perform most manual or social tasks (including seemingly simple functions with some social aspects, like accounting). As of 2019, a survey of essentially all US businesses found that only about 1.5% of them had any AI investments. Even if such investments have picked up over the past year and a half, we have a long, long way to go before AI becomes widespread.


May 24, 202408:24
Episode 1917 - May 30 - Đừng tin vào sự cường điệu của AI - Vina Technology at AI time

Episode 1917 - May 30 - Đừng tin vào sự cường điệu của AI - Vina Technology at AI time

Đừng tin vào sự cường điệu của AI

Daron Acemoglu. Project Syndicate. Ngày 21 Tháng Năm, 2024..Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số.

Nếu bạn lắng nghe các nhà lãnh đạo ngành công nghệ, các nhà dự báo khu vực kinh doanh và phần lớn các phương tiện truyền thông, bạn có thể tin rằng những tiến bộ gần đây trong AI tạo nội dung sẽ sớm mang lại lợi ích năng suất phi thường, cách mạng hóa cuộc sống như chúng ta biết. Tuy nhiên, cả lý thuyết kinh tế và dữ liệu đều không ủng hộ những dự báo hào hứng như vậy.

Theo các nhà lãnh đạo công nghệ và nhiều chuyên gia và học giả, trí tuệ nhân tạo đã sẵn sàng biến đổi thế giới như chúng ta biết thông qua việc tăng năng suất chưa từng có. Trong khi một số người tin rằng máy móc sẽ sớm làm mọi thứ con người có thể làm, mở ra một kỷ nguyên mới thịnh vượng vô biên, những dự đoán khác ít nhất là có cơ sở hơn. Ví dụ, Goldman Sachs dự đoán rằng AI tạo nội dung sẽ thúc đẩy GDP toàn cầu thêm 7% trong thập kỷ tới và Viện Toàn cầu McKinsey dự đoán rằng tốc độ tăng trưởng GDP hàng năm có thể tăng 3-4 điểm phần trăm từ nay đến năm 2040. Về phần mình, The Economist hy vọng rằng AI sẽ tạo ra một cơ hội cho thành phần lao động cổ cồn xanh.

Điều này có thực tế không? Như tôi đã lưu ý trong một bài báo gần đây, triển vọng không chắc chắn hơn nhiều so với hầu hết các dự báo và phỏng đoán cho thấy. Tuy nhiên, mặc dù về cơ bản không thể dự đoán với bất kỳ sự tự tin nào về những gì AI sẽ làm trong 20 hoặc 30 năm tới, người ta có thể nói điều gì đó về thập kỷ tới, bởi vì hầu hết các hiệu ứng kinh tế ngắn hạn này phải liên quan đến các công nghệ hiện có và cải tiến chúng.

Thật hợp lý khi cho rằng tác động lớn nhất của AI sẽ đến từ việc tự động hóa một số nhiệm vụ và làm cho một số công nhân trong một số ngành nghề làm việc hiệu quả hơn. Lý thuyết kinh tế cung cấp một số hướng dẫn để đánh giá các hiệu ứng tổng hợp này. Theo định lý Hulten (được đặt theo tên của nhà kinh tế học Charles Hulten), các hiệu ứng "năng suất nhân tố tổng hợp" (TFP) tổng hợp chỉ đơn giản là sản phẩm của tỷ lệ các nhiệm vụ được tự động hóa nhân với tiết kiệm chi phí trung bình.

Mặc dù tiết kiệm chi phí trung bình rất khó ước tính và sẽ thay đổi theo hoạt động, nhưng đã có một số nghiên cứu cẩn thận về tác động của AI đối với một số nhiệm vụ nhất định. Ví dụ, Shakked Noy và Whitney Zhang đã kiểm tra tác động của ChatGPT đối với các tác vụ viết đơn giản (như tóm tắt tài liệu hoặc viết đề xuất tài trợ thông thường hoặc tài liệu tiếp thị), trong khi Erik Brynjolfsson, Danielle Li và Lindsey Raymond đã đánh giá việc sử dụng trợ lý AI trong dịch vụ khách hàng. Kết hợp với nhau, nghiên cứu này cho thấy rằng các công cụ AI tạo nội dung hiện có mang lại mức tiết kiệm chi phí lao động trung bình là 27% và tiết kiệm chi phí tổng thể là 14,4%.

Còn việc chia sẻ các nhiệm vụ sẽ bị ảnh hưởng bởi AI và các công nghệ liên quan thì sao? Sử dụng số liệu từ các nghiên cứu gần đây, tôi ước tính con số này là khoảng 4.6%, ngụ ý rằng AI sẽ chỉ tăng TFP 0.66% trong mười năm, hoặc 0.06% hàng năm. Tất nhiên, vì AI cũng sẽ thúc đẩy sự bùng nổ đầu tư, sự gia tăng tăng trưởng GDP có thể lớn hơn một chút, có lẽ trong khoảng 1-1,5%.

Những con số này nhỏ hơn nhiều so với Goldman Sachs và McKinsey. Nếu bạn muốn có được những con số lớn hơn, bạn phải tăng năng suất ở cấp độ vi mô hoặc giả định rằng nhiều nhiệm vụ hơn trong nền kinh tế sẽ bị ảnh hưởng. Nhưng cả hai kịch bản đều không có vẻ hợp lý. Tiết kiệm chi phí lao động trên 27% không chỉ nằm ngoài phạm vi được cung cấp bởi các nghiên cứu hiện có; Chúng cũng không phù hợp với các hiệu ứng quan sát được của các công nghệ khác, thậm chí còn hứa hẹn hơn. Ví dụ, robot công nghiệp đã biến đổi một số lĩnh vực sản xuất và chúng dường như đã giảm chi phí lao động khoảng 30%.

Tương tự, chúng ta khó có thể thấy hơn 4,6% nhiệm vụ được thực hiện, bởi vì AI gần như không thể thực hiện hầu hết các nhiệm vụ thủ công hoặc xã hội (bao gồm các chức năng dường như đơn giản với một số khía cạnh xã hội, như kế toán).


May 24, 202408:45
Episode 1916 - May 30 - Tiếng Anh - Tin tức Công Nghệ Thông Tin - Ngày 23 tháng 5 năm 2024

Episode 1916 - May 30 - Tiếng Anh - Tin tức Công Nghệ Thông Tin - Ngày 23 tháng 5 năm 2024

IT News of the Day – May 23, 2024

1 - Pocket-Sized AI Models Could Unlock a New Era of Computing

Will Knight. WIRED. May 23, 2024.

Research at Microsoft shows it’s possible to make AI models small enough to run on phones or laptops without major compromises to their smarts. The technique could open up new use cases for AI.

When ChatGPT was released in November 2023, it could only be accessed through the cloud because the model behind it was downright enormous.

Today I am running a similarly capable AI program on a Macbook Air, and it isn’t even warm. The shrinkage shows how rapidly researchers are refining AI models to make them leaner and more efficient. It also shows how going to ever larger scales isn’t the only way to make machines significantly smarter.

The model now infusing my laptop with ChatGPT-like wit and wisdom is called Phi-3-mini. It’s part of a family of smaller AI models recently released by researchers at Microsoft. Although it’s compact enough to run on a smartphone, I tested it by running it on a laptop and accessing it from an iPhone through an app called Enchanted that provides a chat interface similar to the official ChatGPT app.

In a paper describing the Phi-3 family of models, Microsoft’s researchers say the model I used measures up favorably to GPT-3.5, the OpenAI model behind the first release of ChatGPT. That claim is based on measuring its performance on several standard AI benchmarks designed to measure common sense and reasoning. In my own testing, it certainly seems just as capable.

Microsoft announced a new “multimodal” Phi-3 model capable of handling audio, video, and text at its annual developer conference, Build, this week. That came just days after OpenAI and Google both touted radical new AI assistants built on top of multimodal models accessed via the cloud.

Microsoft’s Lilliputian family of AI models suggest it’s becoming possible to build all kinds of handy AI apps that don’t depend on the cloud. That could open up new use cases, by allowing them to be more responsive or private. (Offline algorithms are a key piece of the Recall feature Microsoft announced that uses AI to make everything you ever did on your PC searchable.)

But the Phi family also reveals something about the nature of modern AI, and perhaps how it can be improved. Sébastien Bubeck, a researcher at Microsoft involved with the project, tells me the models were built to test whether being more selective about what an AI system is trained on could provide a way to fine-tune its abilities.

The large language models like OpenAI’s GPT-4 or Google’s Gemini that power chatbots and other services are typically spoon-fed huge gobs of text siphoned from books, websites, and just about any other accessible source. Although it’s raised legal questions, OpenAI and others have found that increasing the amount of text fed to these models, and the amount of computer power used to train them, can unlock new capabilities

Bubeck, who is interested in the nature of the “intelligence” exhibited by language models, decided to see if carefully curating the data fed to a model could improve its abilities without having to balloon its training data

Last September, his team took a model roughly one-17th the size of OpenAI’s GPT-3.5, trained it on “textbook quality” synthetic data generated by a larger AI model, including factoids from specific domains including programming. The resulting model displayed surprising abilities for its size. “Lo and behold, what we observed is that we were able to beat GPT-3.5 at coding using this technique,” he says. “That was really surprising to us.”

Bubeck’s group at Microsoft has made other discoveries using this approach. One experiment showed that feeding an extra-tiny model children’s stories allowed it to produce consistently coherent output, even though AI programs of this size typically produce gibberish when trained the conventional way. Once again, the result suggests you can make seemingly underpowered AI

May 24, 202411:39
Episode 1915 - May 30 - Tin tức Công Nghệ Thông Tin - Ngày 23 tháng 5 năm 2024

Episode 1915 - May 30 - Tin tức Công Nghệ Thông Tin - Ngày 23 tháng 5 năm 2024

Bản tin Công nghệ thông tin - Ngày 23 tháng 5, 2024.

2 - Trò chuyện Xi PT? Chatbot của Trung Quốc đảm bảo đó là một đồng chí tốt

Các công ty AI Trung Quốc phải vượt qua các hạn chế về chip và các quy định nghiêm ngặt trong việc tạo chatbot ngang bằng với ChatGPT

Bởi Stu Woo. Wall Street Journal. Ngày 24 tháng 5 năm 2024. Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số

Các công ty trí tuệ nhân tạo Trung Quốc phải đối mặt với hai thách thức lớn trong việc cố gắng tạo ra các chatbot ngang bằng với ChatGPT của OpenAI. Một là vượt qua các biện pháp kiểm soát xuất khẩu của Mỹ đối với việc mua chip trí tuệ nhân tạo hàng đầu.

Thách thức thứ hai? Đảm bảo chatbot tuân thủ Tư tưởng Tập Cận Bình.

Đó là học thuyết của Tập Cận Bình, nhà lãnh đạo Đảng Cộng sản cầm quyền của Trung Quốc. Và chính quyền Trung Quốc đã đưa ra một lời nhắc nhở về cách các công ty AI dự kiến sẽ hành xử vào thứ Hai, khi họ công bố một chatbot mới được đào tạo về lý thuyết 14 điểm của Tập Cận Bình, trong đó nhấn mạnh các giá trị xã hội chủ nghĩa và sự lãnh đạo của đảng đối với mọi thứ ở Trung Quốc.

Chính thức, chatbot có nghĩa là cung cấp nghiên cứu an ninh mạng và công nghệ thông tin. Được thiết kế bởi học viện không gian mạng của Trung Quốc, chatbot lấy dữ liệu từ bảy nguồn. Sáu trong số đó là cơ sở dữ liệu chuyên nghiệp về công nghệ. Thứ hai là học thuyết, được gọi chính thức là "Tư tưởng Tập Cận Bình về chủ nghĩa xã hội đặc sắc Trung Quốc cho một kỷ nguyên mới".

Trung Quốc và Mỹ đang cạnh tranh vị trí dẫn đầu trong lĩnh vực AI, một lĩnh vực công nghệ hứa hẹn sẽ tăng năng suất kinh tế trong khi thay đổi cách mọi người làm việc. Nhưng trong một tập hợp con của AI, các công ty Trung Quốc phải đối mặt với một bất lợi, bởi vì Bắc Kinh kiểm duyệt không chỉ những gì chatbot có thể tạo ra, mà còn cả những dữ liệu chatbot có thể học hỏi.

Chatbot được công bố hôm thứ Hai đang được thử nghiệm nội bộ tại viện nghiên cứu không gian mạng của Trung Quốc và không rõ liệu nó có được công khai hay không. Theo thông báo của cơ quan quản lý không gian mạng Trung Quốc, những người có quyền truy cập vào chatbot có thể đặt câu hỏi về công nghệ mạng và nó có thể tạo ra phản hồi bằng tiếng Trung và tiếng Anh.

Cơ quan quản lý cho biết chatbot có thể, ví dụ, phác thảo các báo cáo về tình trạng phát triển AI hiện tại hoặc mô tả sự khác biệt giữa tăng trưởng kinh tế dựa trên công nghệ và các hình thức năng suất cũ.

Trung Quốc năm 2017 đã công bố kế hoạch trở thành cường quốc thống trị thế giới về mọi mặt của AI vào năm 2030. Nó vạch ra một chương trình nghị sự từ trên xuống khuyến khích các tổ chức giáo dục và các công ty tham gia, và họ đã đáp ứng.

Trong cuộc cạnh tranh với Mỹ, Trung Quốc có một số lợi thế tự nhiên. 1,4 tỷ người của nó cung cấp cho nó nhiều dữ liệu hơn để nhanh chóng đào tạo các hệ thống cho các phương tiện tự trị và thị giác máy tính, một lĩnh vực liên quan đến việc diễn giải thông tin từ hình ảnh và video.

Chip AI của Nvidia rất quan trọng đối với công nghệ từ điện thoại thông minh đến chatbot. Sản xuất của họ chỉ được thuê ngoài cho một công ty ở Đài Loan. Với những lo ngại ngày càng tăng rằng Trung Quốc có thể tiến hành một cuộc xâm lược hòn đảo, Mỹ đang chạy đua để đảm bảo chuỗi cung ứng.

Nhưng đối với việc đào tạo các chatbot như ChatGPT của OpenAI, Hoa Kỳ có lợi thế. Các hệ thống AI được phát triển bởi OpenAI, Google và những người khác đòi hỏi khối lượng thông tin lớn để học hỏi. Điều đó đã thúc đẩy các thỏa thuận như quan hệ đối tác cấp phép nội dung gần đây giữa OpenAI và chủ sở hữu News Corp của Wall Street Journal, trong đó nhà xuất bản sẽ cung cấp dữ liệu có thể giúp cải thiện ChatGPT.

Ở Trung Quốc, nhà phát triển AI phải đối mặt với những hạn chế. Cũng giống như cơ quan quản lý không gian mạng của nước này chặn quyền truy cập vào Google, Facebook và các nguồn tin tức nước ngoài, nó cũng có một danh sách các nguồn được phê duyệt trước mà các chatbot AI có thể được đào tạo, Rebecca Arcesati, một nhà phân tích tại Viện Nghiên cứu Trung Quốc Mercator,

May 24, 202413:30
Episode 1914 - May 30 - Tiếng Anh - Phần 3 của 3 - AI có thể lập kế hoạch không - Vina Technology at AI time

Episode 1914 - May 30 - Tiếng Anh - Phần 3 của 3 - AI có thể lập kế hoạch không - Vina Technology at AI time

Can an A.I. Make Plans? – Part 3 of 3

Today’s systems struggle to magine the future—but that may soon change.

By Cal Newport. The New Yorker. March 15, 2024.

In another example, the researchers asked GPT-4 to write a short poem in which the last line uses the same words as the first, but in reverse order. Furthermore, they specified that all of the lines of the poem needed to make sense in both grammar and content. For example:

Darkness requires light,

Toward this truth our imagination takes flight.

But let us not forget, as we take solace,

Light requires Darkness.

Humans can easily handle this task: the above poem, terrible as it is, satisfies the prompt and took me less than a minute to compose. GPT-4, on the other hand, stumbled. When Bubeck’s team asked it to attempt the assignment, the chatbot started its poem with the line “I heard his voice across the crowd”—an ill-advised decision that led, inevitably, to the nonsensical concluding line “Crowd the across voice his heard I.” To succeed in this poem-writing challenge, you need to think about writing your last line before you compose your first. GPT-4 wasn’t able to peer into the future that way. “The model relies on a local and greedy process of generating the next word, without any global or deep understanding of the task or the output,” the researchers wrote.

Bubeck’s team wasn’t the only one to explore the planning struggle. In December, a paper presented at Neural Information Processing Systems, a prominent artificial-intelligence conference, asked several L.L.M.s to tackle “commonsense planning tasks,” including rearranging colored blocks into stacks ordered in specific ways and coming up with efficient schedules for shipping goods through a network of cities and connecting roads. In all cases, the problems were designed to be easily solvable by people, but also to require the ability to look ahead to understand how current moves might alter what’s possible later. Of the models tested, GPT-4 performed best; even it was able to achieve only a twelve-per-cent success rate.

These problems with planning aren’t superficial. They can’t be fixed by making L.L.M.s bigger, or by changing how they’re trained. They reflect something fundamental about the way these models operate.

A system like GPT-4 is outrageously complicated, but one way to understand it is as a supercharged word predictor. You feed it input, in the form of text, and it outputs, one at a time, a string of words that it predicts will extend the input in a rational manner. (If you give a large language model the input “Mary had a little,” it will likely output “lamb.”) A.I. applications like ChatGPT are wrapped around large language models such as GPT-4. To generate a long response to your prompt, ChatGPT repeatedly invokes its underlying model, growing the output one word at a time.

To choose their words, language models start by running their input through a series of pattern recognizers, arranged into sequential layers. As the text proceeds through this exegetical assembly line, the model incrementally builds up a sophisticated internal representation of what it’s being asked about. It might help to imagine that the model has a vast checklist containing billions of possible properties; as the input text is processed by the model, it is checking off all of the properties that seem to apply. For example, if you provide GPT-4 with a description of a chessboard and ask it to make a move, the model might check off properties indicating that the input is about a game, that the game is chess, and that the user is asking for a move. Some properties might be related to more specific information, such as the fact that the board described in the input has a white knight on space E3; others might encode abstract observations, like the role that the white knight in space E3 is playing in protecting its king.

Once the input has been processed, the model must now apply what it’s learned to help select its next word.

May 24, 202409:16
Episode 1913 - May 30 - Phần 3 của 3 - AI có thể lập kế hoạch không - Vina Technology at AI time

Episode 1913 - May 30 - Phần 3 của 3 - AI có thể lập kế hoạch không - Vina Technology at AI time

AI có thể lập kế hoạch không? – Phần 3 của 3

Tác giả: Cal Newport. nhà văn đóng góp cho The New Yorker và là phó giáo sư khoa học máy tính tại Đại học Georgetown. Ngày 15 tháng 3 năm 2024.

Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số.

Con người có thể dễ dàng hoàn thành nhiệm vụ này: bài thơ trên, khủng khiếp như nó vốn có, thỏa mãn lời nhắc và tôi mất chưa đầy một phút để sáng tác. GPT-4, mặt khác, vấp ngã. Khi nhóm của Bubeck yêu cầu họ thử bài tập, chatbot bắt đầu bài thơ của mình bằng dòng "Tôi nghe thấy giọng nói của anh ấy trong đám đông" - một quyết định thiếu sáng suốt dẫn đến, chắc chắn, đến dòng kết luận vô nghĩa "Crowd the across voice his heard I." Để thành công trong thử thách viết thơ này, bạn cần suy nghĩ về việc viết dòng cuối cùng trước khi sáng tác dòng đầu tiên. GPT-4 đã không thể nhìn vào tương lai theo cách đó. "Mô hình dựa trên một quá trình cục bộ và tham lam để tạo ra từ tiếp theo, mà không có bất kỳ sự hiểu biết toàn thể hoặc sâu sắc nào về nhiệm vụ hoặc đầu ra", các nhà nghiên cứu viết.

Nhóm của Bubeck không phải là người duy nhất khám phá cuộc đấu tranh lập kế hoạch. Vào tháng Mười Hai, một bài báo được trình bày tại Neural Information Processing Systems, một hội nghị trí tuệ nhân tạo nổi tiếng, đã yêu cầu một số mô hình ngôn ngữ lớn giải quyết "các nhiệm vụ lập kế hoạch thông thường", bao gồm sắp xếp lại các khối màu thành các ngăn xếp được sắp xếp theo những cách cụ thể và đưa ra lịch trình hiệu quả để vận chuyển hàng hóa thông qua một mạng lưới các thành phố và kết nối các con đường. Trong mọi trường hợp, các vấn đề được thiết kế để mọi người có thể dễ dàng giải quyết, nhưng cũng đòi hỏi khả năng nhìn về phía trước để hiểu làm thế nào các động thái hiện tại có thể thay đổi những gì có thể sau này. Trong số các mô hình được thử nghiệm, GPT-4 hoạt động tốt nhất; Ngay cả nó cũng chỉ có thể đạt được tỷ lệ thành công mười hai phần trăm.

Những vấn đề với kế hoạch không phải là hời hợt. Chúng không thể được sửa chữa bằng cách làm cho mô hình ngôn ngữ lớn lớn hơn, hoặc bằng cách thay đổi cách chúng được đào tạo. Chúng phản ánh một cái gì đó cơ bản về cách các mô hình này hoạt động.

Một hệ thống như GPT-4 cực kỳ phức tạp, nhưng một cách để hiểu nó là một công cụ dự đoán từ tăng áp. Bạn cung cấp cho nó đầu vào, dưới dạng văn bản, và nó tạo ra, từng từ một, một chuỗi các từ mà nó dự đoán sẽ mở rộng đầu vào một cách hợp lý. (Nếu bạn đưa ra một mô hình ngôn ngữ lớn, đầu vào "Mary had a little", nó có thể sẽ xuất ra "lamb.") Các ứng dụng AI như ChatGPT được bao bọc xung quanh các mô hình ngôn ngữ lớn như GPT-4. Để tạo phản hồi dài cho lời nhắc của bạn, ChatGPT liên tục gọi mô hình cơ bản của nó, tăng dần đầu ra từng từ một.

Để chọn từ của chúng, các mô hình ngôn ngữ bắt đầu bằng cách chạy đầu vào của họ thông qua một loạt các bộ nhận dạng mẫu, được sắp xếp thành các lớp tuần tự. Khi văn bản tiến hành thông qua dây chuyền lắp ráp thực hành này, mô hình dần dần xây dựng một đại diện nội bộ tinh vi về những gì chúng được hỏi. Có thể hữu ích khi tưởng tượng rằng mô hình có một danh sách kiểm tra rộng lớn chứa hàng tỷ thuộc tính có thể; Khi văn bản đầu vào được xử lý bởi mô hình, chúng kiểm tra tất cả các thuộc tính dường như áp dụng. Ví dụ: nếu bạn yêu cầu GPT-4 mô tả về bàn cờ và yêu cầu nó di chuyển, mô hình có thể kiểm tra các thuộc tính cho biết rằng đầu vào là về một trò chơi, rằng trò chơi là cờ vua và người dùng đang yêu cầu di chuyển. Một số thuộc tính có thể liên quan đến thông tin cụ thể hơn, chẳng hạn như thực tế là bảng được mô tả trong đầu vào có một hiệp sĩ trắng trên không gian E3; những người khác có thể mã hóa các quan sát trừu tượng, như vai trò của hiệp sĩ trắng trong không gian E3 trong việc bảo vệ vị vua của nó.

Khi đầu vào đã được xử lý, mô hình bây giờ phải áp dụng những gì nó đã học để giúp chọn từ tiếp theo. Ở đây, thật hữu ích khi mở rộng phép ẩn dụ danh sách kiểm tra của chúng ta để bao gồm một bộ sưu tập lớn các hướng dẫn để liên

May 24, 202411:47
Episode 1912 - May 30 - Tiếng Anh - Phần 2 của 3 - AI có thể lập kế hoạch không - Vina Technology at AI time

Episode 1912 - May 30 - Tiếng Anh - Phần 2 của 3 - AI có thể lập kế hoạch không - Vina Technology at AI time

Can an A.I. Make Plans? – Part 2 of 3

Today’s systems struggle to magine the future—but that may soon change.

By Cal Newport. The New Yorker. March 15, 2024.

It points toward something fundamental about how large language models think. Given the predicted importance of these tools in our lives, it’s worth taking a moment to pull on this thread. To better understand what to expect from A.I. systems in the future, in other words, we should start by better understanding what the dominant systems of today still cannot do.

How does the human brain tackle a math problem like the one that Bubeck used to stump GPT-4? In his M.I.T. talk, he described how our thinking might unfold. Once we recognize that our goal is to increase the sum on the right side of the equation by fourteen, we begin searching for promising options on the left side. “I look at the left, I see a seven,” Bubeck said. “Then I have kind of a eureka moment. Ah! Fourteen is seven times two. O.K., so if it’s seven times two, then I need to turn this four into a six.”

To us, this type of thinking is natural—it’s just how we figure things out. We might overlook, therefore, the degree to which such reasoning depends on anticipation. To solve our math problem, we have to look into the future and assess the impact of various changes that we might make. The reason the “7 x 4” quickly catches our attention is that we intuitively simulate what will happen if we increase the number of sevens. “It was through some kind of planning,” Bubeck concluded, of his solution process. “I was thinking ahead about what I’m gonna need.”

We deploy this cognitive strategy constantly in our daily lives. When holding a serious conversation, we simulate how different replies might shift the mood—just as, when navigating a supermarket checkout, we predict how slowly the various lines will likely progress. Goal-directed behavior more generally almost always requires us to look into the future to test how much various actions might move us closer to our objectives. This holds true whether we’re pondering life’s big decisions, such as whether to move or have kids, or answering the small but insistent queries that propel our workdays forward, such as which to-do-list item to tackle next.

Presumably, for an artificial intelligence to achieve something like human cognition, it would also need to master this kind of planning. In “2001: A Space Odyssey,” the self-aware supercomputer hal 9000 refuses Dave’s request to “open the pod bay doors” because, we can assume, it simulates the possible consequences of this action and doesn’t like what it discovers. The ability to consider the future is inextricable from our colloquial understanding of real intelligence. All of which points to the importance of GPT-4’s difficulty with Bubeck’s math equation. The A.I.’s struggle here was not a fluke. As it turns out, a growing body of research finds that these cutting-edge systems consistently fail at the fundamental task of thinking ahead.

Consider, for example, the research paper that Bubeck was presenting in his M.I.T. talk. He and his team at Microsoft Research ran a pre-release version of GPT-4 through a series of systematic intelligence tests. In most areas, the model’s performance was “remarkable.” But tasks that involved planning were a notable exception. The researchers provided GPT-4 with the rules of Towers of Hanoi, a simple puzzle game in which you move disks of various sizes between three rods, shifting them one at a time without ever placing a larger disk above a smaller one. They then asked the model to tackle a straightforward instance of the game that can be solved in five moves. GPT-4 provided an incorrect answer. As the researchers noted, success in this puzzle requires you to look ahead, asking whether your current move might lead you to a future dead end.

May 24, 202409:24
Episode 1911 - May 30 - Phần 2 của 3 - AI có thể lập kế hoạch không - Vina Technology at AI time

Episode 1911 - May 30 - Phần 2 của 3 - AI có thể lập kế hoạch không - Vina Technology at AI time

AI có thể lập kế hoạch không? – Phần 2 của 3

Như bài viết của LessWrong nhấn mạnh, một mô hình ngôn ngữ lớn có thể chơi cờ vua cấp độ người mới vững chắc có lẽ không chỉ sao chép các nước đi mà nó gặp phải trong khi đọc sách về cờ vua. Có vẻ như, theo một nghĩa khó giải thích nào đó, nó "hiểu" các quy tắc của trò chơi - một thành tựu sâu sắc hơn. Các ví dụ khác về lý luận mô hình ngôn ngữ lớn rõ ràng ngay sau đó, bao gồm vượt qua các kỳ thi SAT, giải câu đố, lập trình trò chơi điện tử từ đầu và giải thích những câu chuyện cười. Những tác động ở đây có khả năng sâu sắc. Trong một cuộc nói chuyện tại M.I.T., Sébastien Bubeck, một nhà nghiên cứu của Microsoft, thành viên của một nhóm nghiên cứu một cách có hệ thống các khả năng của GPT-4, đã mô tả những phát triển này: "Nếu quan điểm của bạn là, 'Điều tôi quan tâm là giải quyết vấn đề, suy nghĩ trừu tượng, hiểu những ý tưởng phức tạp, lý luận về các yếu tố mới đến với tôi, "thì tôi nghĩ bạn phải gọi GPT-4 là thông minh", ông nói.

Tuy nhiên, đan xen với câu chuyện về sự ngạc nhiên khó chịu này là một đối trọng hấp dẫn. Vẫn còn một số nhiệm vụ đơn giản đáng ngạc nhiên tiếp tục cản trở mô hình ngôn ngữ lớn. Trong bài nói chuyện M.I.T. của mình, Bubeck đã mô tả việc cho GPT-4 phương trình toán học "7 x 4 + 8 x 8 = 92". Sau đó, ông yêu cầu nó sửa đổi chính xác một số ở phía bên tay trái để phương trình thay vào đó sẽ đánh giá thành 106. Đối với một người, vấn đề này rất đơn giản: thay đổi "7 x 4" thành "7 x 6". Nhưng GPT-4 không thể tìm ra nó, và cung cấp một câu trả lời rõ ràng là sai. " Các tính toán hoặc lý luận số được thực hiện bởi GPT-4 là không nhất quán hoặc không chính xác. " Bubeck nói.

Làm thế nào những hệ thống mạnh mẽ này có thể đánh bại chúng ta trong cờ vua nhưng lại chùn bước trong toán học cơ bản? Nghịch lý này phản ánh nhiều hơn chỉ là một thiết kế kỳ quặc mang phong cách riêng. Nó chỉ ra một cái gì đó cơ bản về cách các mô hình ngôn ngữ lớn suy nghĩ. Với tầm quan trọng được dự đoán của những công cụ này trong cuộc sống của chúng ta, thật đáng để dành một chút thời gian để tìm hiểu về chủ đề này. Để hiểu rõ hơn về những gì mong đợi từ các hệ thống AI trong tương lai, nói cách khác, chúng ta nên bắt đầu bằng cách hiểu rõ hơn về những gì các hệ thống thống trị ngày nay vẫn không thể làm được. (6000) – VI – Part 1A - Can an A.I. Make Plans

Làm thế nào để bộ não con người giải quyết một vấn đề toán học như vấn đề mà Bubeck đã sử dụng để chứng minh sự yếu kém của GPT-4? Trong bài nói chuyện M.I.T. của mình, ông đã mô tả suy nghĩ của chúng ta có thể diễn ra như thế nào. Khi chúng tôi nhận ra rằng mục tiêu của chúng ta là tăng tổng ở phía bên phải của phương trình lên mười bốn, chúng ta bắt đầu tìm kiếm các tùy chọn đầy hứa hẹn ở phía bên trái. "Tôi nhìn vào bên trái, tôi thấy một số bảy," Bubeck nói. "Sau đó, tôi có một khoảnh khắc eureka. Ah! Mười bốn là bảy lần hai. OK, vì vậy nếu nó là bảy lần hai, thì tôi cần phải biến bốn lần này thành sáu.

Đối với chúng ta, kiểu suy nghĩ này là tự nhiên - đó chỉ là cách chúng ta tìm ra mọi thứ. Do đó, chúng ta có thể bỏ qua mức độ mà lý luận như vậy phụ thuộc vào dự đoán. Để giải quyết vấn đề toán học của chúng ta, chúng ta phải nhìn vào tương lai và đánh giá tác động của những thay đổi khác nhau mà chúng ta có thể thực hiện. Lý do "7 x 4" nhanh chóng thu hút sự chú ý của chúng ta là chúng ta mô phỏng trực quan những gì sẽ xảy ra nếu chúng ta tăng số lượng bảy. "Đó là thông qua một số loại kế hoạch," Bubeck kết luận, về quá trình giải pháp của mình. "Tôi đã suy nghĩ trước về những gì tôi sẽ cần."

Chúng ta triển khai chiến lược nhận thức này liên tục trong cuộc sống hàng ngày. Khi tổ chức một cuộc trò chuyện nghiêm túc, chúng ta mô phỏng các câu trả lời khác nhau có thể thay đổi tâm trạng như thế nào — giống như, khi điều hướng thanh toán ở siêu thị, chúng ta dự đoán các dòng khác nhau có thể sẽ tiến triển chậm như thế nào. Hành vi hướng đến mục tiêu nói chung hầu như luôn đòi hỏi chúng ta phải nhìn vào tương lai để kiểm tra xem có

May 24, 202410:58
Episode 1910 - May 29 - Một số cái nhìn thoáng qua về AGI trong ChatGPT - Vina Technology at AI time

Episode 1910 - May 29 - Một số cái nhìn thoáng qua về AGI trong ChatGPT - Vina Technology at AI time

Một số cái nhìn thoáng qua về AGI trong ChatGPT - Những người khác gọi nó là ảo ảnh

Một làn sóng thuật toán AI mới có cảm giác như chúng có thể đạt đến trí tuệ tổng hợp nhân tạo (AGI) - nhưng thật khó để đo lường tiến trình đó.

Lê Quang Văn viết dựa theo tài liệu của Will Knight, WIRED, Ngày 18 tháng 4 năm 2023.

Sébastien Bubeck, một nhà nghiên cứu học máy tại Microsoft, đã có một sự hiển linh đêm khuya về AI và kỳ lân. Gần đây được cấp quyền truy cập sớm vào GPT-4, một thuật toán tạo văn bản mạnh mẽ từ OpenAI, Bubeck là một phần của nhóm tích hợp nó vào công cụ tìm kiếm Bing của Microsoft. Ông và các đồng nghiệp đã rất ngạc nhiên bởi cảm giác GPT-4 khác biệt như thế nào so với các mẫu trước đó.

GPT-4, giống như các phiên bản trước, được đào tạo trên một lượng lớn văn bản và mã, sử dụng các mẫu trong dữ liệu này để dự đoán những từ nào sẽ xuất hiện tiếp theo trong một văn bản nhất định. Nhưng đối với Bubeck, phản ứng của ông dường như vượt ra ngoài việc chỉ đưa ra những dự đoán tốt. Đêm đó, ông yêu cầu GPT-4 vẽ một con kỳ lân bằng TikZ, một ngôn ngữ lập trình cho các sơ đồ khoa học. Mặc dù là một mô hình chỉ có văn bản, GPT-4 đã tạo ra mã, khi được hiển thị, tạo ra một hình ảnh kỳ lân thô. Điều này đã thuyết phục Bubeck rằng GPT-4 có một số hiểu biết về các khái niệm trừu tượng. "Một cái gì đó mới đang xảy ra ở đây," ông nói. "Có lẽ đây là lần đầu tiên chúng ta có một thứ mà chúng ta có thể gọi là tình báo."

Cuộc tranh luận về trí thông minh của AI đã tăng cường. Sau khi OpenAI phát hành ChatGPT, được hỗ trợ bởi GPT-3, vào tháng 11 năm ngoái, nó đã khiến thế giới ngạc nhiên với khả năng viết về nhiều chủ đề khác nhau, giải quyết các vấn đề mã hóa và tổng hợp kiến thức web. Tuy nhiên, nỗi sợ hãi này được trộn lẫn với những lo ngại về gian lận học thuật, thông tin sai lệch, thất nghiệp hàng loạt và sự phát triển nhanh chóng của công nghệ nguy hiểm tiềm tàng.

Hiểu được những khả năng và rủi ro mới của AI có nghĩa là biết những khả năng này là gì và những khả năng nào là không. Trong khi ChatGPT và các hệ thống tương tự cung cấp cho máy tính những kỹ năng mới ấn tượng, các nhà nghiên cứu vẫn đang tìm hiểu ý nghĩa của những hành vi này. OpenAI đã thúc đẩy hiệu suất của GPT-4 trong các kỳ thi, nhưng các nhà khoa học cho biết khả năng của nó khác với trí thông minh của con người theo những cách quan trọng. Mặc dù có kỹ năng ấn tượng, GPT-4 thường tạo ra mọi thứ và thiếu tính nhất quán của lý luận của con người.

Lấy cảm hứng từ kinh nghiệm của họ với GPT-4, Bubeck và các nhà nghiên cứu AI khác tại Microsoft đã tham gia cuộc tranh luận. Họ đã xuất bản một bài báo cho thấy GPT-4 cho thấy "tia lửa của trí tuệ nhân tạo nói chung", thực hiện các nhiệm vụ dường như cho thấy trí thông minh chung hơn các hệ thống trước đó như GPT-3. Họ lập luận rằng GPT-4 có thể lý luận, lập kế hoạch, học hỏi kinh nghiệm và chuyển giao các khái niệm trên các loại nhiệm vụ khác nhau.

Tuy nhiên, tuyên bố của họ đã vấp phải sự hoài nghi từ các nhà nghiên cứu và chuyên gia AI. Các nhà phê bình chỉ ra rằng thuật ngữ AGI rất mơ hồ và thường được sử dụng để thổi phồng AI. Khoản đầu tư đáng kể của Microsoft vào OpenAI khiến một số người tin rằng công ty có động cơ để phóng đại tiềm năng của GPT-4. Những người khác lưu ý rằng phản hồi của GPT-4 không nhất quán và OpenAI đã không chia sẻ thông tin chi tiết về thiết kế của nó. Các câu hỏi cũng được đặt ra về lý do tại sao GPT-4 vẫn mắc phải những sai lầm ngớ ngẩn nếu nó thực sự thông minh.

Talia Ringer, giáo sư tại Đại học Illinois tại Urbana-Champaign, cho biết bài báo của Microsoft đã đưa ra một số tuyên bố vượt trội. Ringer cảnh báo rằng việc quảng bá các hệ thống thông minh cao có thể đánh lừa người dùng tin tưởng chúng bất chấp những sai sót của chúng. Ringer cũng lưu ý rằng nhiều bài kiểm tra trí thông minh của con người đã được chứng minh là không đáng tin cậy và thiên vị.

Bubeck thừa nhận những hạn chế trong nghiên cứu của mình, bao gồm các vấn đề về khả năng tái tạo và các điểm mù đáng kể của GPT-4.

May 24, 202411:32
Episode 1909 - May 29 - Tiếng Anh - Phần 1 của 3 - AI có thể lập kế hoạch không - Vina Technology at AI time

Episode 1909 - May 29 - Tiếng Anh - Phần 1 của 3 - AI có thể lập kế hoạch không - Vina Technology at AI time

Can an A.I. Make Plans? – Part 1 of 3

Today’s systems struggle to magine the future—but that may soon change.

By Cal Newport. The New Yorker. March 15, 2024.

Last summer, AdamYedidia, a user on a Web forum called LessWrong, published a post titled “Chess as a Case Study in Hidden Capabilities in ChatGPT.” He started by noting that the Internet is filled with funny videos of ChatGPT playing bad chess: in one popular clip, the A.I. confidently and illegally moves a pawn backward. But many of these videos were made using the original version of OpenAI’s chatbot, which was released to the public in late November, 2022, and was based on the GPT-3.5 large language model. Last March, OpenAI introduced an enhanced version of ChatGPT based on the more powerful GPT-4. As the post demonstrated, this new model, if prompted correctly, could play a surprisingly decent game of chess, achieving something like an Elo rating of 1000—better than roughly fifty per cent of ranked players. “ChatGPT has fully internalized the rules of chess,” he asserted. It was “not relying on memorization or other, shallower patterns.”

This distinction matters. When large language models first vaulted into the public consciousness, scientists and journalists struggled to find metaphors to help explain their eerie facility with text. Many eventually settled on the idea that these models “mix and match” the incomprehensibly large quantities of text they digest during their training. When you ask ChatGPT to write a poem about the infinitude of prime numbers, you can assume that, during its training, it encountered many examples of both prime-number proofs and rhyming poetry, allowing it to combine information from the former with the patterns observed in the latter. (“I’ll start by noting Euclid’s proof, / Which shows that primes aren’t just aloof.”) Similarly, when you ask a large language model, or L.L.M., to summarize an earnings report, it will know where the main points in such documents can typically be found, and then will rearrange them to create a smooth recapitulation. In this view, these technologies play the role of redactor, helping us to make better use of our existing thoughts.

But after the advent of GPT-4—which was soon followed by other next-generation A.I. models, including Google’s PaLM-2 and Anthropic’s Claude 2.1—the mix-and-match metaphor began to falter. As the LessWrong post emphasizes, a large language model that can play solid novice-level chess probably isn’t just copying moves that it encountered while ingesting books about chess. It seems likely that, in some hard-to-conceptualize sense, it “understands” the rules of the game—a deeper accomplishment. Other examples of apparent L.L.M. reasoning soon followed, including acing SAT exams, solving riddles, programming video games from scratch, and explaining jokes. The implications here are potentially profound. During a talk at M.I.T., Sébastien Bubeck, a Microsoft researcher who was part of a team that systematically studied the abilities of GPT-4, described these developments: “If your perspective is, ‘What I care about is to solve problems, to think abstractly, to comprehend complex ideas, to reason on new elements that arrive at me,’ then I think you have to call GPT-4 intelligent,” he said.

Yet intertwined with this narrative of uneasy astonishment is an intriguing counterpoint. There remain some surprisingly simple tasks that continue to stymie L.L.M.s. In his M.I.T. talk, Bubeck described giving GPT-4 the math equation “7 x 4 + 8 x 8 = 92.” He then asked it to modify exactly one number on the left-hand side so that the equation would instead evaluate to 106. For a person, this problem is straightforward: change “7 x 4” to “7 x 6.” But GPT-4 couldn’t figure it out, and provided an answer that was clearly wrong. “The arithmetic is shaky,” Bubeck said.

How can these powerful systems beat us in chess but falter on basic math? This paradox reflects more than just an idiosyncratic design.

May 24, 202410:11
Episode 1908 - May 29 - Phần 1 của 3 - AI có thể lập kế hoạch không - Vina Technology at AI time

Episode 1908 - May 29 - Phần 1 của 3 - AI có thể lập kế hoạch không - Vina Technology at AI time

AI có thể lập kế hoạch không? – Phần 1 của 3

Các hệ thống ngày nay đấu tranh để tưởng tượng tương lai - nhưng điều đó có thể sớm thay đổi.

Tác giả: Cal Newport. nhà văn đóng góp cho The New Yorker và là phó giáo sư khoa học máy tính tại Đại học Georgetown. Ngày 15 tháng 3 năm 2024.

Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số.

Mùa hè năm ngoái, AdamYedidia, một người dùng trên một diễn đàn web có tên LessWrong, đã xuất bản một bài đăng có tiêu đề "Cờ vua như một nghiên cứu điển hình về khả năng ẩn trong ChatGPT - Chess as a Case Study in Hidden Capabilities in ChatGPT.". Ông bắt đầu bằng cách lưu ý rằng Internet tràn ngập các video hài hước về ChatGPT chơi cờ tồi: trong một clip phổ biến, AI tự tin và di chuyển bất hợp pháp một con tốt về phía sau. Nhưng nhiều video trong số này được thực hiện bằng phiên bản gốc của chatbot OpenAI, được phát hành ra công chúng vào cuối tháng 11 năm 2022 và dựa trên mô hình ngôn ngữ lớn GPT-3.5. Tháng 3 năm ngoái, OpenAI đã giới thiệu phiên bản nâng cao của ChatGPT dựa trên GPT-4 mạnh mẽ hơn. Như bài đăng đã chứng minh, mô hình mới này, nếu được nhắc chính xác, có thể chơi một ván cờ một cách khá giỏi đáng ngạc nhiên, đạt được xếp hạng Elo là 1000 — tốt hơn khoảng năm mươi phần trăm người chơi được xếp hạng. "ChatGPT đã tiếp thu đầy đủ các quy tắc của cờ vua", ông khẳng định. Đó là "không dựa vào việc ghi nhớ hoặc các mẫu nông hơn khác." [Cụm từ "không dựa vào việc ghi nhớ hoặc các mẫu nông hơn khác" có nghĩa là hiệu suất của mô hình mới không chỉ dựa trên việc nhớ lại các bước di chuyển hoặc trình tự cụ thể mà nó đã thấy trước đây (ghi nhớ) hoặc sử dụng các chiến lược đơn giản không đòi hỏi sự hiểu biết sâu sắc (các mẫu nông hơn). Thay vào đó, mô hình thể hiện mức độ hiểu biết và ra quyết định tinh vi hơn, sâu sắc hơn trong lối chơi của nó. Điều này ngụ ý rằng mô hình có khả năng tư duy chiến lược thực sự và thích ứng với các tình huống mới, thay vì chỉ sao chép thông tin đã học trước đó hoặc sử dụng các chiến thuật cơ bản, hời hợt.]

Sự khác biệt này rất quan trọng. Khi các mô hình ngôn ngữ lớn lần đầu tiên xuất hiện trong ý thức cộng đồng, các nhà khoa học và nhà báo đã phải vật lộn để tìm ra phép ẩn dụ để giúp giải thích cơ sở kỳ lạ của họ bằng văn bản. Nhiều người cuối cùng đã giải quyết ý tưởng rằng các mô hình này "trộn và kết hợp" số lượng lớn văn bản không thể hiểu được mà chúng sử dụng trong quá trình đào tạo. Khi bạn yêu cầu ChatGPT viết một bài thơ về vô hạn của số nguyên tố, bạn có thể giả định rằng, trong quá trình đào tạo, nó đã gặp nhiều ví dụ về cả chứng minh số nguyên tố và thơ có vần điệu, cho phép nó kết hợp thông tin từ cái trước (số nguyên tố) với các mẫu được quan sát thấy ở cái sau (thơ có vần điệu). ("Tôi sẽ bắt đầu bằng cách lưu ý chứng minh của Euclid, / Điều này cho thấy rằng các số nguyên tố không chỉ xa cách.") Tương tự, khi bạn yêu cầu một mô hình ngôn ngữ lớn, tóm tắt báo cáo thu nhập, nó sẽ biết những điểm chính trong các tài liệu đó thường có thể được tìm thấy ở đâu và sau đó sẽ sắp xếp lại chúng để tạo ra một bản tóm tắt gọn gàng. Theo quan điểm này, những công nghệ này đóng vai trò của biên tập viên, giúp chúng ta sử dụng tốt hơn những suy nghĩ hiện có của mình.

Nhưng sau sự ra đời của GPT-4 - ngay sau đó là các mô hình AI thế hệ tiếp theo khác, bao gồm PaLM-2 của Google và Claude 2.1 của Anthropic - phép ẩn dụ mix-and-match bắt đầu chùn bước. [điều đó có nghĩa là với sự xuất hiện của các mô hình AI tiên tiến này, khái niệm chỉ đơn giản là kết hợp các thành phần khác nhau trở nên ít được áp dụng hơn. Những mô hình mới hơn này có thể đã chứng minh một cách tiếp cận toàn diện, tích hợp hơn đối với trí tuệ nhân tạo, trong đó khả năng của chúng được pha trộn liền mạch hơn và không dễ dàng chia thành các phần riêng biệt. Sự phát triển này làm cho cách hiểu và mô tả AI trước đây (như một hỗn hợp và kết hợp các thành phần) kém chính xác hoặc hữu ích hơn.]

May 24, 202413:35
Episode 1907 - May 29 - Tiếng Anh - AI là một hộp đen - Anthropic đã tìm ra cách để nhìn vào bên trong - Vina Technology at AI time

Episode 1907 - May 29 - Tiếng Anh - AI là một hộp đen - Anthropic đã tìm ra cách để nhìn vào bên trong - Vina Technology at AI time

AI Is a Black Box - Anthropic Figured Out a Way to Look Inside

By Steven Levy. WIRED. May 21, 2024 11:00 AM

What goes on in artificial neural networks work is largely a mystery, even to their creators. But researchers from Anthropic have caught a glimpse.

For the past decade, AI researcher Chris Olah has been obsessed with artificial neural networks. One question in particular engaged him, and has been the center of his work, first at Google Brain, then OpenAI, and today at AI startup Anthropic, where he is a cofounder. “What's going on inside of them?” he says. “We have these systems, we don't know what's going on. It seems crazy.”

That question has become a core concern now that generative AI has become ubiquitous. Large language models like ChatGPT, Gemini, and Anthropic’s own Claude have dazzled people with their language prowess and infuriated people with their tendency to make things up. Their potential to solve previously intractable problems enchants techno-optimists. But LLMs are strangers in our midst. Even the people who build them don’t know exactly how they work, and massive effort is required to create guardrails to prevent them from churning out bias, misinformation, and even blueprints for deadly chemical weapons. If the people building the models knew what happened inside these “black boxes,'' it would be easier to make them safer.

Olah believes that we’re on the path to this. He leads an Anthropic team that has peeked inside that black box. Essentially, they are trying to reverse engineer large language models to understand why they come up with specific outputs—and, according to a paper released today, they have made significant progress.

Maybe you’ve seen neuroscience studies that interpret MRI scans to identify whether a human brain is entertaining thoughts of a plane, a teddy bear, or a clock tower. Similarly, Anthropic has plunged into the digital tangle of the neural net of its LLM, Claude, and pinpointed which combinations of its crude artificial neurons evoke specific concepts, or “features.” The company’s researchers have identified the combination of artificial neurons that signify features as disparate as burritos, semicolons in programming code, and—very much to the larger goal of the research—deadly biological weapons. Work like this has potentially huge implications for AI safety: If you can figure out where danger lurks inside an LLM, you are presumably better equipped to stop it.

I met with Olah and three of his colleagues, among 18 Anthropic researchers on the “mechanistic interpretability” team. They explain that their approach treats artificial neurons like letters of Western alphabets, which don’t usually have meaning on their own but can be strung together sequentially to have meaning. “C doesn’t usually mean something,” says Olah. “But car does.” Interpreting neural nets by that principle involves a technique called dictionary learning, which allows you to associate a combination of neurons that, when fired in unison, evoke a specific concept, referred to as a feature.

“It’s sort of a bewildering thing,” says Josh Batson, an Anthropic research scientist. “We’ve got on the order of 17 million different concepts [in an LLM], and they don't come out labeled for our understanding. So we just go look, when did that pattern show up?”

Last year, the team began experimenting with a tiny model that uses only a single layer of neurons. (Sophisticated LLMs have dozens of layers.) The hope was that in the simplest possible setting they could discover patterns that designate features. They ran countless experiments with no success. “We tried a whole bunch of stuff, and nothing was working. It looked like a bunch of random garbage,” says Tom Henighan, a member of Anthropic’s technical staff. Then a run dubbed “Johnny”—each experiment was assigned a random name—began associating neural patterns with concepts that appeared in its outputs.

May 24, 202411:05
Episode 1906 - May 29 - AI là một hộp đen - Anthropic đã tìm ra cách để nhìn vào bên trong - Vina Technology at AI time

Episode 1906 - May 29 - AI là một hộp đen - Anthropic đã tìm ra cách để nhìn vào bên trong - Vina Technology at AI time

AI là một hộp đen - Anthropic đã tìm ra cách để nhìn vào bên trong

Tác giả: Steven Levy. WIRED. Ngày 21 tháng 5, 2024. Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số.

Những gì diễn ra trong công việc của mạng thần kinh nhân tạo phần lớn là một bí ẩn, ngay cả đối với những người tạo ra chúng. Nhưng các nhà nghiên cứu từ Anthropic đã bắt gặp một cái nhìn thoáng qua.

Trong thập kỷ qua, nhà nghiên cứu AI Chris Olah đã bị ám ảnh bởi các mạng thần kinh nhân tạo. Một câu hỏi đặc biệt thu hút anh ấy, và là trung tâm công việc của anh ấy, đầu tiên tại Google Brain, sau đó là OpenAI, và ngày nay tại công ty khởi nghiệp AI Anthropic, nơi anh ấy là người đồng sáng lập. "Chuyện gì đang xảy ra bên trong chúng?" ông nói. "Chúng tôi có những hệ thống này, chúng tôi không biết chuyện gì đang xảy ra. Có vẻ điên rồ."

Câu hỏi đó đã trở thành mối quan tâm cốt lõi khi AI tạo nội dung đã trở nên phổ biến. Các mô hình ngôn ngữ lớn như ChatGPT, Gemini và Claude của Anthropic đã khiến mọi người lóa mắt với khả năng ngôn ngữ của chúng và khiến mọi người tức giận với xu hướng bịa đặt mọi thứ. Tiềm năng của chúng để giải quyết các vấn đề khó khăn trước đây mê hoặc những người lạc quan về công nghệ. Nhưng các mô hình ngôn ngữ lớn là những người xa lạ ở giữa chúng ta. Ngay cả những người xây dựng chúng cũng không biết chính xác chúng hoạt động như thế nào, và cần phải có nỗ lực lớn để tạo ra lan can bảo vệ để ngăn chúng tạo ra sự thiên vị, thông tin sai lệch và thậm chí cả bản thiết kế cho vũ khí hóa học chết người. Nếu những người xây dựng các mô hình biết những gì đã xảy ra bên trong những "hộp đen" này, sẽ dễ dàng hơn để làm cho chúng an toàn hơn.

Olah tin rằng chúng ta đang trên con đường dẫn đến điều này. Anh ta dẫn đầu một nhóm Anthropic đã nhìn trộm bên trong hộp đen đó. Về cơ bản, họ đang cố gắng đảo ngược các mô hình ngôn ngữ lớn để hiểu lý do tại sao các mô hình ngôn ngữ lớn đưa ra các kết quả đầu ra cụ thể và theo một bài báo được phát hành ngày hôm nay, họ đã đạt được tiến bộ đáng kể.

Có thể bạn đã thấy các nghiên cứu khoa học thần kinh giải thích quét MRI để xác định xem bộ não con người đang giải trí những suy nghĩ về máy bay, gấu bông hay tháp đồng hồ. Tương tự, Anthropic đã lao vào mớ hỗn độn kỹ thuật số của mạng lưới thần kinh của mô hình ngôn ngữ lớn, Claude, và xác định chính xác sự kết hợp của các tế bào thần kinh nhân tạo thô sơ của nó gợi lên các khái niệm cụ thể, hoặc "tính năng". Các nhà nghiên cứu của công ty đã xác định được sự kết hợp của các tế bào thần kinh nhân tạo biểu thị các tính năng khác nhau như burritos, dấu chấm phẩy trong mã lập trình và - rất nhiều cho mục tiêu lớn hơn của nghiên cứu - vũ khí sinh học chết người. Công việc như thế này có ý nghĩa rất lớn đối với sự an toàn của AI: Nếu bạn có thể tìm ra nơi nguy hiểm ẩn nấp bên trong mô hình ngôn ngữ lớn, có lẽ bạn được trang bị tốt hơn để ngăn chặn nó.

Tôi đã gặp Olah và ba đồng nghiệp của anh ấy, trong số 18 nhà nghiên cứu Anthropic trong nhóm "khả năng diễn giải cơ học - mechanistic interpretability ". Họ giải thích rằng cách tiếp cận của họ xử lý các tế bào thần kinh nhân tạo giống như các chữ cái của bảng chữ cái phương Tây, thường không có ý nghĩa riêng nhưng có thể được xâu chuỗi lại với nhau một cách tuần tự để có ý nghĩa. "C thường không có nghĩa là gì đó," Olah nói. "Nhưng car thì có." Giải thích mạng lưới thần kinh theo nguyên tắc đó liên quan đến một kỹ thuật gọi là học từ điển (dictionary learning), cho phép bạn liên kết một tổ hợp các tế bào thần kinh, khi được bắn đồng loạt, gợi lên một khái niệm cụ thể, được gọi là một tính năng.

"Đó là một điều gây hoang mang", Josh Batson, một nhà khoa học nghiên cứu Anthropic nói. "Chúng tôi đã đặt hàng 17 triệu khái niệm khác nhau [trong LLM] và chúng không được dán nhãn để giúp cho sự hiểu biết của chúng tôi. Vậy chúng ta cứ đi xem, các mẫu đó xuất hiện từ khi nào?" ["mẫu" đề cập đến những cách dễ nhận biết và định kỳ trong đó dữ liệu hoặc khái niệm xuất hiện và được tổ chức trong mô hình ngôn ngữ lớn.]

May 24, 202413:10
Episode 1905 - May 28 - Giới thiệu sách - Các công ty thay đổi cuộc chơi AI cho Quan hệ Khách hàng - Vina Technology at AI time

Episode 1905 - May 28 - Giới thiệu sách - Các công ty thay đổi cuộc chơi AI cho Quan hệ Khách hàng - Vina Technology at AI time

Giới thiệu sách do Lê Quang Văn thực hiện.

Các công ty thay đổi cuộc chơi AI cho Quan hệ Khách hàng

Giới thiệu

Trong thời đại chuyển đổi kỹ thuật số, các doanh nghiệp không ngừng tìm kiếm những cách thức sáng tạo để tăng cường kết nối với khách hàng. Trí tuệ nhân tạo (AI) đi đầu trong cuộc cách mạng này, cung cấp một bộ công cụ được thiết kế để cá nhân hóa trải nghiệm của khách hàng, tối ưu hóa sự tham gia và cuối cùng, thúc đẩy các mối quan hệ lâu dài. Cuốn sách này đi sâu vào năm công cụ AI đang định hình lại cách các doanh nghiệp tương tác với khách hàng của họ, khám phá tác động và tiềm năng của chúng để chuyển đổi quan hệ khách hàng.

Chương 1: ChatGPT: Đối tác trò chuyện AI của bạn

Sự phát triển của dịch vụ khách hàng

Trước khi AI ra đời, các phương thức dịch vụ khách hàng truyền thống thường chậm và không hiệu quả, dẫn đến sự không hài lòng lan rộng giữa các khách hàng. Thời gian chờ đợi lâu, phản hồi theo kịch bản và tính khả dụng hạn chế là những vấn đề phổ biến gây khó khăn cho các doanh nghiệp và khiến khách hàng của họ thất vọng. Sự xuất hiện của ChatGPT đánh dấu một bước ngoặt quan trọng trong bối cảnh này.

Cách ChatGPT cách mạng hóa dịch vụ khách hàng

ChatGPT, được phát triển bởi OpenAI, đã mang lại một cấp độ mới về hiệu quả và cá nhân hóa cho các tương tác của khách hàng. Bằng cách tận dụng khả năng xử lý ngôn ngữ tự nhiên tiên tiến, ChatGPT đã có thể hiểu và trả lời các câu hỏi của khách hàng với độ chính xác và tốc độ vượt trội. Điều này không chỉ cải thiện thời gian phản hồi mà còn đảm bảo rằng khách hàng nhận được thông tin liên quan và hữu ích, nâng cao trải nghiệm tổng thể của họ.

Nghiên cứu điển hình: Câu chuyện thành công với ChatGPT

• Ngành bán lẻ: Một nền tảng thương mại điện tử hàng đầu đã tích hợp ChatGPT vào hệ thống hỗ trợ khách hàng của mình, giúp giảm 40% thời gian phản hồi và tăng 30% điểm hài lòng của khách hàng. Khả năng xử lý nhiều truy vấn đồng thời của AI cho phép các tác nhân con người tập trung vào các vấn đề phức tạp hơn, cải thiện hơn nữa chất lượng dịch vụ.

• Lĩnh vực ngân hàng: Một ngân hàng lớn đã sử dụng ChatGPT để hợp lý hóa các hoạt động dịch vụ khách hàng của mình, cung cấp hỗ trợ tức thì cho các yêu cầu và giao dịch thông thường. Điều này dẫn đến khối lượng công việc của trung tâm cuộc gọi giảm đáng kể và cải thiện lòng trung thành của khách hàng.

Tương lai của dịch vụ khách hàng với ChatGPT

Khi ChatGPT tiếp tục phát triển, các ứng dụng tiềm năng của nó trong dịch vụ khách hàng là vô biên. Những phát triển trong tương lai có thể bao gồm các khả năng trí tuệ cảm xúc tinh vi hơn, cho phép AI hiểu rõ hơn và phản ứng tốt hơn với cảm xúc của khách hàng, tăng cường hơn nữa việc cá nhân hóa các tương tác.

Chương 2: Robonote: Tóm tắt sâu sắc về giao tiếp với khách hàng

Thách thức của quá tải dữ liệu

Mỗi ngày, các doanh nghiệp tham gia vào hàng ngàn cuộc trò chuyện với khách hàng của họ trên nhiều kênh khác nhau, tạo ra một lượng dữ liệu khổng lồ. Tóm tắt và phân tích dữ liệu này theo cách thủ công để rút ra những hiểu biết có ý nghĩa là một nhiệm vụ khó khăn.

Giải pháp hỗ trợ AI của Robonote

Robonote giải quyết thách thức này bằng cách sử dụng AI để nắm bắt và phân tích các tương tác của khách hàng. Các thuật toán tiên tiến của nó có thể xử lý một lượng lớn dữ liệu, tạo ra các báo cáo tóm tắt cung cấp thông tin chi tiết có giá trị về nhu cầu và sở thích của khách hàng. Các báo cáo này trao quyền cho các nhà quản lý đưa ra quyết định sáng suốt, nâng cao khả năng đáp ứng hiệu quả nhu cầu của khách hàng.

Nghiên cứu điển hình: Robonote đang hoạt động

• Viễn thông: Một công ty viễn thông toàn cầu đã triển khai Robonote để quản lý các tương tác của khách hàng trên các trung tâm cuộc gọi của mình. Các bản tóm tắt do AI tạo ra nêu bật các vấn đề phổ biến và phản hồi của khách hàng, cho phép công ty giải quyết kịp thời các vấn đề định kỳ và cải thiện chất lượng dịch vụ tổng thể

• Chăm sóc sức khỏe: Một nhà cung cấp dịch vụ chăm sóc sức khỏe đã sử dụng Robonote để phân tích phản hồi của bệnh nhân

May 23, 202409:33
Episode 1904 - May 28 - Tiếng Anh - Nền kinh tế bế tắc của Trung Quốc là tin xấu cho tất cả mọi người - Vina Technology at AI time

Episode 1904 - May 28 - Tiếng Anh - Nền kinh tế bế tắc của Trung Quốc là tin xấu cho tất cả mọi người - Vina Technology at AI time

China’s Dead-End Economy Is Bad News for Everyone

New York Times. May 11, 2024.

On separate visits to Beijing last month, Secretary of State Antony Blinken and Treasury Secretary Janet Yellen bore a common message: Chinese manufacturing overcapacity is flooding global markets with cheap Chinese exports, distorting world trade and leaving American businesses and workers struggling to compete.

Not surprisingly, China’s leaders did not like what they heard, and they didn’t budge. They can’t. Years of erratic and irresponsible policies, excessive Communist Party control and undelivered promises of reform have created a dead-end Chinese economy of weak domestic consumer demand and slowing growth. The only way that China’s leaders can see to pull themselves out of this hole is to fall back on pumping out exports.

That means a number of things are likely to happen, none of them good. The tide of Chinese exports will continue, tensions with the United States and other trading partners will grow, China’s people will become increasingly unhappy with their gloomy economic prospects and anxious Communist Party leaders will respond with more repression.

The root of the problem is the Communist Party’s excessive control of the economy, but that’s not going to change. It is baked into China’s political system and has only worsened during President Xi Jinping’s decade in power. New strategies for fixing the economy always rely on counterproductive mandates set by the government: Create new companies, build more industrial capacity. The strategy that most economists actually recommend to drive growth — freeing up the private sector and empowering Chinese consumers to spend more — would mean overhauling the way the government works, and that is unacceptable.

The party had a golden opportunity to change in 1989, when the Tiananmen Square protests revealed that the economic reforms that had begun a decade earlier had given rise to a growing private sector and a desire for new freedoms. But to liberalize government institutions in response would have undermined the party’s power. Instead, China’s leaders chose to shoot the protesters, further tighten party control and get hooked on government investment to fuel the economy.

For a long time, no one minded. When economic or social threats reared their heads, like global financial crises in 1997 and 2007, Chinese authorities poured money into industry and the real estate sector to pacify the people. The investment-driven growth felt good, but it was much more than the country could digest and left China’s landscape scarred with empty cities and industrial parks, unfinished bridges to nowhere, abandoned highways and amusement parks, and airports with few flights.

The investment in industrial capacity also generated an explosion in exports as China captured industries previously dominated by foreign manufacturers — mobile phones, television sets, solar panels, lithium-ion batteries and electric vehicles. Much of the Chinese economic “miracle” was powered by American, European and Japanese companies that willingly transferred their technical know-how to their Chinese partners in exchange for what they thought would be access to a permanently growing China market. This decimated manufacturing in the West, even as China protected its own markets. But the West let it slide: The cheap products emanating from China kept U.S. inflation at bay for a generation, and the West clung to the hope that China’s economic expansion would eventually lead to a political liberalization that never came.

To raise money for the government investment binge, Beijing allowed local authorities to collateralize land — all of which is ultimately owned or controlled by the state — and borrow money against it. This was like a drug: Local governments borrowed like crazy, but with no real plan for paying the money back. Now many are so deep in debt that they have been forced to cut basic services like heating, health care for senior

May 23, 202408:10
Episode 1903 - May 28 - Nền kinh tế bế tắc của Trung Quốc là tin xấu cho tất cả mọi người - Vina Technology at AI time

Episode 1903 - May 28 - Nền kinh tế bế tắc của Trung Quốc là tin xấu cho tất cả mọi người - Vina Technology at AI time

Nền kinh tế bế tắc của Trung Quốc là tin xấu cho tất cả mọi người

New York Times., Ngày 11 Tháng Năm, 2024. Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số.

Trong các chuyến thăm riêng rẽ tới Bắc Kinh vào tháng trước, Ngoại trưởng Antony Blinken và Bộ trưởng Tài chính Janet Yellen đã đưa ra một thông điệp chung: Sự dư thừa năng lực sản xuất của Trung Quốc đang tràn ngập thị trường toàn cầu với hàng xuất khẩu giá rẻ của Trung Quốc, làm méo mó thương mại thế giới và khiến các doanh nghiệp và người lao động Mỹ phải vật lộn để cạnh tranh.

Không có gì đáng ngạc nhiên, các nhà lãnh đạo Trung Quốc không thích những gì họ nghe, và họ không nhúc nhích. Họ không thể. Nhiều năm chính sách thất thường và vô trách nhiệm, sự kiểm soát quá mức của Đảng Cộng sản và những lời hứa cải cách không được thực hiện đã tạo ra một nền kinh tế Trung Quốc bế tắc với nhu cầu tiêu dùng trong nước yếu và tăng trưởng chậm lại. Cách duy nhất mà các nhà lãnh đạo Trung Quốc có thể thấy để tự kéo mình ra khỏi lỗ hổng này là quay trở lại chính sách gia tăng hàng xuất khẩu.

Chính sách này có nghĩa là một số điều có khả năng xảy ra, không ai trong số chúng là tốt. Làn sóng xuất khẩu của Trung Quốc sẽ tiếp tục, căng thẳng với Hoa Kỳ và các đối tác thương mại khác sẽ gia tăng, người dân Trung Quốc sẽ ngày càng không hài lòng với triển vọng kinh tế ảm đạm của họ và các nhà lãnh đạo Đảng Cộng sản lo lắng sẽ phản ứng bằng sự đàn áp nhiều hơn.

Gốc rễ của vấn đề là sự kiểm soát quá mức của Đảng Cộng sản đối với nền kinh tế, nhưng điều đó sẽ không thay đổi. Nó đã ăn sâu vào hệ thống chính trị của Trung Quốc và chỉ trở nên tồi tệ hơn trong thập kỷ cầm quyền của Chủ tịch Tập Cận Bình. Các chiến lược mới để sửa chữa nền kinh tế luôn dựa vào các nhiệm vụ phản tác dụng do chính phủ đặt ra: Tạo ra các công ty mới, xây dựng thêm năng lực công nghiệp. Chiến lược mà hầu hết các nhà kinh tế thực sự khuyến nghị để thúc đẩy tăng trưởng - giải phóng khu vực tư nhân và trao quyền cho người tiêu dùng Trung Quốc chi tiêu nhiều hơn - có nghĩa là đại tu cách thức hoạt động của chính phủ, và điều đó không thể được Đảng Cộng sản Trung Quốc chấp nhận.

Đảng đã có một cơ hội vàng để thay đổi vào năm 1989, khi các cuộc biểu tình ở Quảng trường Thiên An Môn tiết lộ rằng những cải cách kinh tế đã bắt đầu một thập kỷ trước đó đã làm phát sinh một khu vực tư nhân đang phát triển và mong muốn có những quyền tự do mới. Nhưng tự do hóa các thể chế chính phủ để đáp trả sẽ làm suy yếu quyền lực của đảng. Thay vào đó, các nhà lãnh đạo Trung Quốc đã chọn bắn những người biểu tình, thắt chặt hơn nữa sự kiểm soát của đảng và bị cuốn hút vào đầu tư của chính phủ để thúc đẩy nền kinh tế.

Trong một thời gian dài, không ai bận tâm. Khi các mối đe dọa kinh tế hoặc xã hội xuất hiện, như các cuộc khủng hoảng tài chính toàn cầu năm 1997 và 2007, chính quyền Trung Quốc đã đổ tiền vào ngành công nghiệp và lĩnh vực bất động sản để xoa dịu người dân. Sự tăng trưởng dựa trên đầu tư có vẻ tốt, nhưng nó xây dựng nhiều hơn những gì đất nước có thể sử dụng và để lại cảnh quan của Trung Quốc đầy sẹo với các thành phố và khu công nghiệp trống rỗng, những cây cầu chưa hoàn , những, đường cao tốc và công viên giải trí bị bỏ hoang, và sân bay với ít chuyến bay.

Việc đầu tư vào năng lực công nghiệp cũng tạo ra sự bùng nổ trong xuất khẩu khi Trung Quốc nắm bắt các ngành công nghiệp trước đây do các nhà sản xuất nước ngoài thống trị - điện thoại di động, tivi, tấm pin mặt trời, pin lithium-ion và xe điện. Phần lớn "phép màu" kinh tế Trung Quốc được hỗ trợ bởi các công ty Mỹ, châu Âu và Nhật Bản sẵn sàng chuyển giao bí quyết kỹ thuật của họ cho các đối tác Trung Quốc để đổi lấy những gì họ nghĩ sẽ tiếp cận thị trường Trung Quốc đang phát triển vĩnh viễn. Điều này đã tàn phá sản xuất ở phương Tây, ngay cả khi Trung Quốc bảo vệ thị trường của chính mình. Nhưng phương Tây đã để nó trượt dài: Các sản phẩm giá rẻ xuất phát từ Trung Quốc đã giữ lạm phát của Mỹ ở mức thấp trong một thế hệ, và phương Tây bám vào hy vọng rằng sự

May 23, 202409:12
Episode 1902 - May 28 - Tiếng Anh - Khan Academy và Microsoft hợp tác - Vina Technology at AI time

Episode 1902 - May 28 - Tiếng Anh - Khan Academy và Microsoft hợp tác - Vina Technology at AI time

Khan Academy and Microsoft are teaming up to give teachers a free AI assistant

AI assistant Khanmigo can help time-strapped teachers come up with lesson ideas and test questions, the companies say.

Steven Melendez. Fastcompany. May 21, 2024.

Khan Academy’s AI assistant will now be free to K-12 teachers in the U.S., thanks to a new deal with Microsoft, the companies said Tuesday during Microsoft’s Build conference.

Microsoft is donating access to its Microsoft Azure infrastructure to give teachers free use of the tool, which previously required a $4 per month subscription to pay for the cost of the underlying AI service.

“They just have a very long reputation now of very successfully delivering these educational materials to learners everywhere in the world,” says Kevin Scott, Microsoft’s CTO and EVP of AI, referring to Khan Academy.

The education nonprofit, known for years for its acclaimed educational videos, will continue to charge school districts and other users for student access to the AI system, though Khan says the organization continues to search for ways to lower prices.

Khan Academy’s AI assistant, Khanmigo, has earned praise for helping students to understand and practice everything from math to English, but it can also help teachers devise lesson plans, formulate questions about assigned readings, and even generate reading passages appropriate for students at different levels. More than just a chatbot, the software offers specific AI-powered tools for generating quizzes and assignment instructions, drafting lesson plans, and formulating letters of recommendation.

“This is something that hopefully a teacher, within hours of using it, is already starting to see a huge ROI,” says Khan Academy founder and CEO Sal Khan.

In announcing the deal, the companies pointed to examples of teachers who’ve successfully used the software to come up with colorful analogies to make abstract science topics stick—like comparing particles in chemical reactions to dancers changing partners—and adjust reading practice passages to include vocabulary at an appropriate level.

Having a virtual teaching assistant is especially valuable in light of recent research from the RAND Corporation that found teachers work longer hours than most working adults, which includes administrative and prep work outside the classroom. Long hours relative to pay can lead to teacher burnout and cause educators to leave the profession, which means students lose the benefit of their experience, according to the report. Khan Academy’s teacher tools can help reduce the amount of time teachers have to spend getting those lessons ready.

“We are hoping that 10 to 20 hours can look a lot more like one to five hours,” says Khan.

Generative AI’s rapid growth initially brought anxiety to the world of education, with teachers from elementary school to the college level concerned about students simply having the software do their homework for them. But even beyond helping teachers, organizations including Khan Academy have increasingly honed AI-powered tools that function more like a human tutor, patiently walking students through solving a problem or offering tips for tightening up an essay without actually doing the assignment.

“They don’t make you feel bad about asking dumb questions,” says Microsoft’s Scott. “Whenever your curiosity arises, if it’s at all hours of the night or in the morning, they’re there for you.”

Scott, who grew up in pre-online rural Virginia and recalls having to seek out information and guidance, sees how AI is already giving an edge to younger generations: His daughter, a high school freshman with an interest in biochemistry, is able to use ChatGPT to help understand research papers from the field.

“Even though no one was targeting a 15-year-old when they were writing this material, she can make it accessible to herself with a free tool,” he says.

Microsoft and Khan Academy will also be working together developing AI tutoring tools for math

May 23, 202405:19
Episode 1901 - May 28 - Tin tức Công Nghệ Thông Tin - Ngày 22 tháng 5 năm 2024 - Vina Technology at AI time

Episode 1901 - May 28 - Tin tức Công Nghệ Thông Tin - Ngày 22 tháng 5 năm 2024 - Vina Technology at AI time

Tin tức Công Nghệ Thông Tin - Ngày 22 tháng 5 năm 2024.

1 - Amazon muốn tăng tốc Alexa để có thể cạnh tranh với ChatGPT

GBR. ngày 22 tháng 5 năm 2024. Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số.

Với AI tạo nội dung là tất cả tin tức nỗi bật trong những ngày này, không có gì ngạc nhiên khi Amazon cuối cùng cũng tham gia vào trận chiến AI này. Theo một báo cáo từ CNBC, Amazon có kế hoạch đại tu hoàn toàn Alexa, trợ lý giọng nói phổ biến của công ty.

Báo cáo lưu ý rằng phiên bản sắp tới của Alexa sẽ mang tính đối thoại nhiều hơn để cạnh tranh hiệu quả hơn với phần mềm trò chuyện tiên tiến như ChatGPT. Tin tức sẽ đến như một bất ngờ thú vị cho người dùng đang nghiện nặng Alexa. Mặc dù Alexa hoạt động hoàn toàn tốt cho các tác vụ đơn giản như đặt lời nhắc và nhận câu trả lời cho các câu hỏi cơ bản, nhưng nó chắc chắn thiếu rất nhiều chức năng được thấy trong các chatbot phức tạp hơn.

Tất nhiên, Alexa được tân trang lại sẽ không miễn phí với CNBC báo cáo rằng nó sẽ "không được bao gồm trong dịch vụ Prime trị giá 139 đô la mỗi năm". Đáng chú ý, mức giá cuối cùng cho phiên bản Alexa có khả năng hơn vẫn là một điểm thảo luận trong nội bộ công ty.

Alexa bị tụt lại phía sau như thế nào?

Điều thú vị là khi Alexa ra mắt, không lâu trước khi nó vượt trội so với các đối thủ như Siri. Ấn tượng hơn nữa là Alexa ra mắt ba năm sau khi Apple giới thiệu Siri.

Vậy, điều gì đã khiến Alexa trì trệ? Đến thời điểm này, CNBC cho biết tiếp rằng Alexa là một sáng kiến mà cá nhân người sáng lập Amazon Jeff Bezos rất hào hứng và đầu tư vào. Do đó, nhóm Alexa đã được cung cấp nguồn lực khổng lồ mà không có bất kỳ yêu cầu đáng kể nào để tiết kiệm chi phí. Thay vào đó, chức năng và tiến độ được ưu tiên.

Tuy nhiên, động lực này đã thay đổi vào năm 2021 khi Jeff Bezos quyết định từ chức CEO Amazon sau 25 năm. Bezos đảm nhận vai trò chủ tịch điều hành, và vị trí CEO sau đó đã được Andy Jassy thay thế. Jassy đã làm việc với Amazon từ năm 1997 và là thành viên của nhóm đã giúp tạo ra AWS.

Với Jassy ở vị trí lãnh đạo, CNBC lưu ý rằng Alexa đã giảm một vài bậc trong danh sách ưu tiên:

Điều đó đã thay đổi khi Andy Jassy tiếp quản vị trí CEO vào năm 2021, theo ba nguồn tin. Jassy bị buộc tội cấp quyền cho hoạt động kinh doanh của Amazon trong thời kỳ đại dịch và Alexa trở nên ít được ưu tiên hơn trong nội bộ, họ nói. Jassy đã bị choáng ngợp với những gì Alexa thời hiện đại có khả năng, theo một người. Nhóm Alexa lo lắng họ đã phát minh ra một chiếc đồng hồ báo thức đắt tiền, máy thời tiết và cách phát nhạc Spotify, một nguồn tin cho biết.

Jassy, một người hâm mộ thể thao, đã hỏi trợ lý giọng nói tỷ số trực tiếp của một trận đấu gần đây, theo một người trong phòng, và công khai thất vọng vì Alexa không biết câu trả lời dễ tìm thấy trên mạng.

Tuy nhiên, Amazon dường như mong muốn điều chỉnh hướng đi và thực sự đầu tư vào việc làm cho Alexa cạnh tranh với phần mềm AI đối thủ. Làm thế nào điều này diễn ra vẫn còn phải chờ, nhưng khi Amazon tập trung các nguồn lực kỹ thuật vào một mục tiêu, nó thường xuyên được hỗ trợ nhiều hơn bình thường. Một lợi ích khác mà Amazon được hưởng là cơ sở cài đặt của các thiết bị hỗ trợ Alexa là rất lớn, mà công ty ước tính nằm trong khoảng 400 triệu.

2 - Apple cũng đang tìm cách tham gia vào AI tạo ra

Amazon, tất nhiên, không phải là công ty duy nhất tìm cách cải tiến trợ lý giọng nói của mình với khả năng AI tạo nội dung. Apple được cho là sẽ công bố một cuộc đại tu tương tự như Siri tại sự kiện WWDC sắp tới của công ty. Hãy nhớ rằng, hội nghị nhà phát triển hàng năm của Apple dự kiến sẽ bắt đầu vào ngày 10 tháng Sáu.

Có tin đồn rằng Apple đã tăng gấp đôi nỗ lực để tạo ra một phiên bản Siri tiên tiến và có khả năng hơn. Cụ thể, phiên bản Siri thế hệ tiếp theo sẽ sử dụng AI trên thiết bị. Tuy nhiên, phạm vi chức năng của nó sẽ không mở rộng như bạn có thể hy vọng

Điều đó bao gồm các dịch vụ như tự động tóm tắt thông báo từ iPhone của bạn, đưa ra tóm tắt nhanh các bài báo và sao chép bản ghi nhớ thoại, cũng như cải thiện

May 23, 202410:22
Episode 1900 - May 27 - Khan Academy và Microsoft hợp tác - Vina Technology at AI time

Episode 1900 - May 27 - Khan Academy và Microsoft hợp tác - Vina Technology at AI time

Khan Academy và Microsoft hợp tác để cung cấp trợ lý AI miễn phí cho giáo viên

Trợ lý AI Khanmigo có thể giúp các giáo viên bị hạn chế về thời gian đưa ra ý tưởng bài học và câu hỏi kiểm tra, các công ty cho biết.

Tác giả: Steven Melendez. Fastcompany. Ngày 21 tháng 5, 2024. Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số.

Trợ lý AI của Khan Academy giờ đây sẽ miễn phí cho giáo viên K-12 ở Mỹ, nhờ một thỏa thuận mới với Microsoft, các công ty cho biết hôm thứ Ba trong hội nghị Build của Microsoft.

Microsoft đang tặng quyền truy cập vào cơ sở hạ tầng Microsoft Azure của mình để cung cấp cho giáo viên sử dụng miễn phí công cụ này, trước đây yêu cầu đăng ký 4 đô la mỗi tháng để trả chi phí cho dịch vụ AI cơ bản.

"Họ đã có danh tiếng rất lâu dài về việc cung cấp rất thành công các tài liệu giáo dục này cho người học ở khắp mọi nơi trên thế giới", Kevin Scott, CTO và EVP của Microsoft về AI, đề cập đến Khan Academy nói.

Tổ chức phi lợi nhuận giáo dục, được biết đến trong nhiều năm với các video giáo dục nổi tiếng, sẽ tiếp tục tính phí các khu học chánh và những người dùng khác để học sinh truy cập vào hệ thống AI, mặc dù Khan cho biết tổ chức này tiếp tục tìm cách giảm giá.

Trợ lý AI của Khan Academy, Khanmigo, đã giành được lời khen ngợi vì đã giúp học sinh hiểu và thực hành mọi thứ từ toán đến tiếng Anh, nhưng nó cũng có thể giúp giáo viên đưa ra kế hoạch bài học, xây dựng câu hỏi về các bài đọc được giao và thậm chí tạo ra các đoạn đọc phù hợp với học sinh ở các cấp độ khác nhau. Không chỉ là một chatbot căn bản, phần mềm còn cung cấp các công cụ hỗ trợ AI cụ thể để tạo các câu đố và hướng dẫn bài tập, soạn thảo kế hoạch bài học và xây dựng thư giới thiệu.

"Đây là điều mà chúng tôi hy vọng: một giáo viên, trong vòng vài giờ sau khi sử dụng nó, đã bắt đầu thấy lợi nhuận đầu tư - ROI khổng lồ", người sáng lập và CEO của Khan Academy Sal Khan nói.

Khi công bố thỏa thuận, các công ty đã chỉ ra các ví dụ về các giáo viên đã sử dụng thành công phần mềm để đưa ra các phép so sánh đầy màu sắc để làm cho các chủ đề khoa học trừu tượng gắn bó - như so sánh các hạt trong phản ứng hóa học với các vũ công thay đổi đối tác - và điều chỉnh các đoạn thực hành đọc để bao gồm từ vựng ở mức độ thích hợp.

Có một trợ lý giảng dạy ảo đặc biệt có giá trị trong bối cảnh nghiên cứu gần đây từ RAND Corporation cho thấy giáo viên làm việc nhiều giờ hơn hầu hết người lớn đang làm việc, bao gồm công việc hành chính và chuẩn bị bên ngoài lớp học. Thời gian dài liên quan đến tiền lương có thể dẫn đến kiệt sức của giáo viên và khiến các nhà giáo dục rời bỏ nghề, điều đó có nghĩa là sinh viên mất đi lợi ích từ kinh nghiệm của họ, theo báo cáo. Các công cụ dành cho giáo viên của Khan Academy có thể giúp giảm lượng thời gian giáo viên phải dành để chuẩn bị những bài học đó.

"Chúng tôi hy vọng rằng 10 đến 20 giờ mà giáo viên phải dùng bình thường có thể sẽ giảm còn từ một đến năm giờ, khi sử dụng trợ lý AI này" Khan nói.

Ban đầu sự phát triển nhanh chóng của AI tạo nội dung mang lại sự lo lắng cho thế giới giáo dục, với các giáo viên từ cấp tiểu học đến đại học lo ngại về việc học sinh chỉ đơn giản là dùng phần mềm để làm bài tập về nhà cho họ. Nhưng thậm chí ngoài việc giúp đỡ giáo viên, các tổ chức bao gồm Khan Academy đã ngày càng mài giũa các công cụ hỗ trợ AI có chức năng giống như một gia sư con người, kiên nhẫn hướng dẫn học sinh giải quyết vấn đề hoặc đưa ra các mẹo để cải thiện chất lượng bài luận mà không thực sự làm bài tập.

"Chúng không khiến bạn cảm thấy tồi tệ khi đặt những câu hỏi ngớ ngẩn", Scott của Microsoft nói. Bất cứ khi nào sự tò mò của bạn xuất hiện, nếu đó là vào tất cả các giờ trong đêm hoặc buổi sáng, họ luôn ở đó vì bạn

Scott, người lớn lên ở vùng nông thôn Virginia trước khi trực tuyến và nhớ lại việc phải tìm kiếm thông tin và hướng dẫn, nhận thấy AI đã mang lại lợi thế cho thế hệ trẻ như thế nào: Con gái ông, một học sinh năm nhất trung học quan tâm đến hóa sinh, có thể sử dụng ChatGPT để giúp hiểu các tài liệu nghiên cứu

May 22, 202406:17
Episode 1899 - May 27 - Tin tức Tin học, ngày 21 tháng 5, 2024. - Vina Technology at AI time

Episode 1899 - May 27 - Tin tức Tin học, ngày 21 tháng 5, 2024. - Vina Technology at AI time


Tin tức Tin học, ngày 21 tháng 5, 2024.

1 - Các chuyên gia cho rằng thế giới chưa chuẩn bị tốt cho những đột phá về AI

The Guardian. Ngày 20 tháng 5, 2024.

Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số.

Các 'bố già' về công nghệ nói trước hội nghị thượng đỉnh rằng các chính phủ chưa đạt được tiến bộ pháp lý đầy đủ

Theo một nhóm chuyên gia cấp cao trong đó có hai "bố già" về AI, thế giới chưa chuẩn bị sẵn sàng cho những đột phá về trí tuệ nhân tạo, đồng thời cảnh báo rằng các chính phủ chưa đạt được đủ tiến bộ trong việc quản lý công nghệ.

Nhóm cho biết, việc các công ty công nghệ chuyển sang hệ thống tự hành có thể “khuếch đại ồ ạt” tác động của AI và các chính phủ cần có các chế độ an toàn để kích hoạt hành động quản lý nếu sản phẩm đạt đến mức khả năng nhất định.

Các khuyến nghị được đưa ra bởi 25 chuyên gia trong đó có Geoffrey Hinton và Yoshua Bengio, hai trong số ba “bố già của AI” đã giành được giải thưởng ACM Turing – giải thưởng khoa học máy tính tương đương với giải Nobel – cho công trình của họ.

Sự can thiệp này diễn ra khi các chính trị gia, chuyên gia và giám đốc điều hành công nghệ chuẩn bị gặp nhau tại hội nghị thượng đỉnh kéo dài hai ngày ở Seoul vào thứ Ba.

Bài báo học thuật có tên “quản lý rủi ro AI cực đoan trong bối cảnh tiến bộ nhanh chóng” khuyến nghị các khuôn khổ an toàn của chính phủ đưa ra các yêu cầu cứng rắn hơn nếu công nghệ tiến bộ nhanh chóng.

Bài báo cũng kêu gọi tăng cường tài trợ cho các cơ quan mới thành lập như viện an toàn AI của Anh và Mỹ; buộc các công ty công nghệ phải thực hiện kiểm tra rủi ro nghiêm ngặt hơn; và hạn chế việc sử dụng hệ thống AI tự trị trong các vai trò xã hội quan trọng.

Theo bài báo đăng trên tạp chí Khoa học hôm thứ Hai, “Phản ứng của xã hội, mặc dù có những bước đi đầu tiên đầy hứa hẹn, nhưng lại không tương xứng với khả năng đạt được tiến bộ nhanh chóng, mang tính chuyển đổi mà nhiều chuyên gia mong đợi”. “Nghiên cứu về an toàn AI đang bị chậm trễ. Các sáng kiến quản trị hiện nay thiếu các cơ chế và thể chế để ngăn chặn việc lạm dụng và liều lĩnh, đồng thời hầu như không giải quyết được các hệ thống tự trị.”

Hội nghị thượng đỉnh về an toàn AI toàn cầu tại Bletchley Park ở Anh năm ngoái đã môi giới một thỏa thuận thử nghiệm tự nguyện với các công ty công nghệ bao gồm Google, Microsoft và Meta của Mark Zuckerberg, trong khi EU đã đưa ra một đạo luật về AI và ở Mỹ, một lệnh điều hành của Nhà Trắng đã đặt ra yêu cầu an toàn AI mới .

Bài báo cho biết các hệ thống AI tiên tiến – công nghệ thực hiện các nhiệm vụ thường gắn liền với những sinh vật thông minh – có thể giúp chữa bệnh và nâng cao mức sống nhưng cũng tiềm ẩn nguy cơ làm xói mòn sự ổn định xã hội và tạo điều kiện cho chiến tranh tự động. Tuy nhiên, nó cảnh báo rằng động thái của ngành công nghệ hướng tới phát triển các hệ thống tự hành còn đặt ra mối đe dọa lớn hơn.

“Các công ty đang chuyển trọng tâm sang phát triển các hệ thống AI tổng quát có thể tự động hành động và theo đuổi các mục tiêu. Các chuyên gia cho biết, việc tăng cường khả năng và quyền tự chủ có thể sớm khuếch đại mạnh mẽ tác động của AI, với những rủi ro bao gồm tác hại xã hội quy mô lớn, sử dụng độc hại và sự mất kiểm soát không thể khắc phục của con người đối với các hệ thống AI tự trị”. “sự bị gạt ra ngoài lề xã hội hoặc sự tuyệt chủng của loài người”.

Giai đoạn tiếp theo trong quá trình phát triển AI thương mại là AI “tác nhân”, thuật ngữ chỉ các hệ thống có thể hoạt động tự chủ và về mặt lý thuyết có thể thực hiện và hoàn thành các nhiệm vụ như đặt kỳ nghỉ.

Tuần trước, hai công ty công nghệ đã đưa ra cái nhìn thoáng qua về tương lai đó với GPT-4o của OpenAI, có thể thực hiện các cuộc trò chuyện bằng giọng nói trong thời gian thực và Project Astra của Google , có thể sử dụng camera trên điện thoại thông minh để xác định vị trí, đọc và giải thích mã máy tính. và tạo ra các câu ám chỉ.

Các đồng tác giả khác của các đề xuất bao gồm tác giả sách bán chạy nhất của Sapiens , Yuval Noah Harari, Daniel Kahneman, người đoạt giải Nobel

May 22, 202409:07
Episode 1898 - May 27 - Tiếng Anh - Chuyên ngành khoa học máy tính tốt nghiệp vào một thế giới có ít cơ hội hơn - Vina Technology at AI time

Episode 1898 - May 27 - Tiếng Anh - Chuyên ngành khoa học máy tính tốt nghiệp vào một thế giới có ít cơ hội hơn - Vina Technology at AI time

Computer-Science Majors Graduate Into a World of Fewer Opportunities

Those from top schools can still get jobs. They are just not all going to Facebook or Google.

By Katherine Bindley, Corrie Driebusch and Lindsay Ellis. WSJ. May 20, 2024.

Computer science is hotter than ever at U.S. universities. But students graduating this month are discovering their degrees are no longer a surefire ticket to tech-industry riches.

In fact, many are finding it harder than they ever thought it would be to land a job.

Tech giants that were expanding aggressively just a few years ago now have less need for entry-level hires—or are shedding jobs. They are also, increasingly, turning their focus to artificial intelligence, a technology many fear could reduce the need for coders. Postings on jobs website Indeed for software-development roles, a proxy for computer science, have dropped 30% from prepandemic levels.

At the same time, companies have a burgeoning supply of new grads to choose from. The number of students in the U.S. majoring in computer and information science has jumped 40% in five years, to more than 600,000 as of 2023. The number of bachelor’s degrees conferred in those majors topped 100,000 in 2021, according to the Department of Education, a 140% rise from 10 years earlier.

Students who once had jobs and summer internships lined up by Thanksgiving are now broadening their searches.

“When I tell people I’m in computer science, they’re, like, ‘Lucky you. You’re going to make a lot of money. You can do anything you want,’” said Ben Riesett, a 22-year-old who graduated this month from Catholic University of America. “The truth is, when you start looking right now, it’s impossible to get hired.”

Just a few years ago, Riesett heard constantly that employers needed staff with his skill set; now, his classmates with jobs got them through friends or family, or from internships. Riesett, in Washington, D.C., said he has applied to entry-level roles all over the country and received only a few responses.

To be sure, computer-science majors from top-tier schools can still get jobs. Pay, projected to be at about $75,000, is at the high end of majors reviewed by the National Association of Colleges and Employers, or NACE. They are just not all going to Facebook or Google.

“Job seekers need to reset their expectations,” said Tim Herbert, chief research officer at CompTIA, a trade group that follows the tech sector. “New grads may need to adjust where they’re willing to work, in some cases what salary, perks or signing bonus they’ll receive, and the type of firm they’ll work for.”

And while big tech companies are hiring for AI-related jobs, Herbert said, many of those positions require more experience than a new grad would have.

In the past 18 months, job growth has remained flat for software publishers, a group of employers that includes software developers, according to the Labor Department. On the student jobs platform Handshake, the number of full-time jobs recently posted for tech companies is down 30% from the year-ago period.

Looking farther afield

Jarin Rahman, an information-science major who just completed her junior year at Cornell University, had long assumed she would try to land a job at a large tech company. As a first-generation college student, she thought it was the best path.

But Rahman knows lots of seniors who interned at big tech companies last summer and didn’t get return offers. With the tech industry appearing less stable than she anticipated, she started looking elsewhere.

“It made me really stressed out because I know that I have to find a way to support my family,” she said.

This summer, she will intern at a real-estate investment management firm.

Stephanie Johnson, a career-development lead with the computer-science department at the University of North Carolina, said her students on average were applying to 150 or more jobs. Many were still waiting for offers in the spring.

Just a few years ago, they might apply for

May 22, 202406:53
Episode 1897 - May 27 - Chuyên ngành khoa học máy tính tốt nghiệp vào một thế giới có ít cơ hội hơn - Vina Technology at AI time

Episode 1897 - May 27 - Chuyên ngành khoa học máy tính tốt nghiệp vào một thế giới có ít cơ hội hơn - Vina Technology at AI time

Chuyên ngành khoa học máy tính tốt nghiệp vào một thế giới có ít cơ hội hơn

Những người từ các trường hàng đầu vẫn có thể kiếm được việc làm. Tất cả họ đều không phải làm cho Facebook hoặc Google.

Tác giả: Katherine Bindley, Corrie Driebusch và Lindsay Ellis. WSJ. Ngày 20 tháng 5 năm 2024. Lê Quang Văn dịch, giải thích và thực hiện phần kỹ thuật số.

Khoa học máy tính đang nóng hơn bao giờ hết tại các trường đại học Hoa Kỳ. Nhưng sinh viên tốt nghiệp trong tháng này đang khám phá ra bằng cấp của họ không còn là tấm vé chắc chắn cho sự giàu có của ngành công nghệ.

Trên thực tế, nhiều người đang cảm thấy khó khăn hơn họ từng nghĩ để có được một công việc.

Những gã khổng lồ công nghệ đã mở rộng mạnh mẽ chỉ vài năm trước đây. giờ đây ít cần tuyển dụng cấp thấp hơn hoặc đang cắt giảm việc làm. Họ cũng ngày càng chuyển trọng tâm sang trí tuệ nhân tạo, một công nghệ mà nhiều người lo ngại có thể làm giảm nhu cầu về lập trình viên. Các bài đăng trên trang web việc làm Indeed, đối với vai trò phát triển phần mềm, một đại diện cho khoa học máy tính, đã giảm 30% so với mức trước đại dịch.

Đồng thời, các công ty có một nguồn cung cấp sinh viên mới tốt nghiệp đang phát triển để lựa chọn. Số lượng sinh viên ở Mỹ chuyên ngành khoa học máy tính và thông tin đã tăng 40% trong 5 năm, lên hơn 600.000 vào năm 2023. Số lượng bằng cử nhân được trao trong các chuyên ngành đó đã lên tới 100.000 vào năm 2021, theo Bộ Giáo dục, tăng 140% so với 10 năm trước đó.

Những sinh viên từng có việc làm và thực tập mùa hè có sẵn trước Lễ Tạ ơn hiện đang mở rộng tìm kiếm của họ.

"Khi tôi nói với mọi người rằng tôi làm trong ngành khoa học máy tính, họ nói giống như, 'May mắn cho bạn. Bạn sẽ kiếm được rất nhiều tiền. Bạn có thể làm bất cứ điều gì bạn muốn", Ben Riesett, một thanh niên 22 tuổi tốt nghiệp Đại học Công giáo Mỹ cho biết. "Sự thật là, khi bạn bắt đầu tìm kiếm ngay bây giờ, bạn không thể được người cần thuê."

Chỉ vài năm trước, Riesett liên tục nghe nói rằng các nhà tuyển dụng cần nhân viên với bộ kỹ năng của mình; Bây giờ, các bạn cùng lớp của anh ấy với Jobs đã nhận được chúng thông qua bạn bè hoặc gia đình, hoặc từ thực tập. Riesett, ở Washington, DC, cho biết anh đã nộp đơn vào các vai trò cấp thấp trên khắp đất nước và chỉ nhận được một vài phản hồi.

Điều chắc chắn là các chuyên ngành khoa học máy tính từ các trường hàng đầu vẫn có thể kiếm được việc làm. Mức lương, dự kiến vào khoảng 75.000 đô la, nằm ở mức cao của các chuyên ngành được Hiệp hội các trường cao đẳng và nhà tuyển dụng quốc gia xem xét, hoặc NACE. Tất cả họ đều không phải làm cho Facebook hoặc Google.

"Người tìm việc cần phải đặt lại kỳ vọng của họ", Tim Herbert, giám đốc nghiên cứu tại CompTIA, một nhóm thương mại theo dõi lĩnh vực công nghệ cho biết. "Sinh viên mới tốt nghiệp có thể cần phải điều chỉnh nơi họ sẵn sàng làm việc, trong một số trường hợp mức lương, đặc quyền hoặc tiền thưởng ký hợp đồng mà họ sẽ nhận được, và loại công ty họ sẽ làm việc."

Và trong khi các công ty công nghệ lớn đang tuyển dụng cho các công việc liên quan đến AI, Herbert nói, nhiều vị trí trong số đó đòi hỏi nhiều kinh nghiệm hơn một sinh viên mới tốt nghiệp.

Trong 18 tháng qua, tăng trưởng việc làm vẫn không đổi đối với các nhà xuất bản phần mềm, một nhóm các nhà tuyển dụng bao gồm các nhà phát triển phần mềm, theo Bộ Lao động. Trên nền tảng việc làm sinh viên Handshake, số lượng việc làm toàn thời gian được đăng gần đây cho các công ty công nghệ đã giảm 30% so với cùng kỳ năm ngoái.

Nhìn xa hơn

Jarin Rahman, một sinh viên chuyên ngành khoa học thông tin vừa hoàn thành năm cuối tại Đại học Cornell, từ lâu đã cho rằng cô sẽ cố gắng tìm được một công việc tại một công ty công nghệ lớn. Là một sinh viên đại học thế hệ đầu tiên, cô nghĩ đó là con đường tốt nhất.

Nhưng Rahman biết rất nhiều sinh viên năm cuối đã thực tập tại các công ty công nghệ lớn vào mùa hè năm ngoái và không nhận được lời đề nghị trở lại. Với ngành công nghiệp công nghệ dường như kém ổn định hơn cô dự đoán, cô bắt đầu tìm kiếm nơi khác.

May 22, 202407:29
Episode 1896 - May 27 - Giới thiệu sách - AI và dữ liệu lớn trong tim mạch - Hướng dẫn thực hành - Vina Technology at AI time

Episode 1896 - May 27 - Giới thiệu sách - AI và dữ liệu lớn trong tim mạch - Hướng dẫn thực hành - Vina Technology at AI time

AI và dữ liệu lớn trong tim mạch - Hướng dẫn thực hành

Giới thiệu

Cuốn sách này cung cấp một cái nhìn tổng quan kỹ thuật chi tiết về việc sử dụng và ứng dụng trí tuệ nhân tạo (AI), học máy và dữ liệu lớn trong tim mạch. Những tiến bộ công nghệ gần đây trong các lĩnh vực này có nghĩa là có tiềm năng đáng kể trong việc áp dụng các phương pháp này vào thực hành lâm sàng hàng ngày. Các chương có các đánh giá kỹ thuật chi tiết và nêu bật những thách thức và hạn chế chính hiện tại, cùng với các kỹ thuật có sẵn để giải quyết chúng cho từng chủ đề được đề cập. Các bộ dữ liệu mẫu được bao gồm để cung cấp hướng dẫn thực hành cho người đọc sử dụng sổ ghi chép Jupyter dựa trên Python, dựa trên các ví dụ thực tế để đảm bảo người đọc có thể phát triển sự tự tin trong việc áp dụng các kỹ thuật này để giải quyết các vấn đề lâm sàng hàng ngày.

Trí tuệ nhân tạo và Dữ liệu lớn trong Tim mạch mô tả một cách có hệ thống và xem xét kỹ thuật các ứng dụng mới nhất của AI và dữ liệu lớn trong tim mạch. Đó là lý tưởng để sử dụng bởi các học viên và bác sĩ tim mạch và tin học thực hành đang tìm kiếm một nguồn tài nguyên cập nhật về chủ đề này, giúp họ phát triển sự hiểu biết thấu đáo về cả các khái niệm cơ bản và những tiến bộ gần đây trong lĩnh vực này.

Mục lục

Chương 0: Giới thiệu

Chương này giới thiệu các thuật ngữ và khái niệm chính cần thiết để hiểu các chương tiếp theo. Các thuật ngữ trí tuệ nhân tạo (AI), học máy và học sâu được giải thích, cùng với các mối quan hệ của chúng. Một đánh giá ngắn gọn được cung cấp về một số ứng dụng chính của AI trong y học và hình ảnh y tế, và vai trò của dữ liệu lớn trong việc đào tạo các hệ thống AI hiệu quả được thảo luận.

Chương 1: AI và Học máy - Những điều cơ bản

Trong chương này, các khái niệm chính về trí tuệ nhân tạo và học máy được giới thiệu. Nhấn mạnh được đặt vào việc xác định đúng vấn đề. Các loại mô hình học máy khác nhau được xem xét, với các gợi ý về thiết kế và đào tạo một mô hình để đáp ứng các yêu cầu vấn đề cụ thể. Những cân nhắc quan trọng để xác nhận mô hình được đào tạo được thảo luận. Chương này xem xét bối cảnh của AI và học máy trong tim mạch, bao gồm các nguồn dữ liệu hình ảnh và không hình ảnh có sẵn và các ứng dụng của chúng. Một hướng dẫn thực tế giới thiệu cho người đọc về sổ ghi chép Jupyter và Python.

Chương 2: Từ Học máy đến Học sâu

Chương này cung cấp một nền tảng kỹ thuật trong các khái niệm toán học cơ bản của học sâu. Nó bắt đầu với việc xác định một bộ phân loại tuyến tính đơn giản và mở rộng để tối ưu hóa bằng cách sử dụng gradient descent. Sự tiến triển đến các mạng thần kinh nhân tạo, bao gồm các mô hình hồi quy perceptron và logistic, được đề cập. Chương này thảo luận thêm về phân loại đa lớp, xử lý dữ liệu có thể tách rời phi tuyến tính và mạng nơ-ron tích chập dẫn đến học sâu. Một hướng dẫn thực tế cung cấp kinh nghiệm thực hành trong việc phát triển các mô hình phân loại bằng Python.

Chương 3: Đo lường và định lượng

Chương này đề cập đến nhiệm vụ lâm sàng của việc đo lường và định lượng hình thái và chức năng tim. Nó mở đầu với một giới thiệu lâm sàng phác thảo quy trình công việc hiện tại và những hạn chế của chúng. Một đánh giá kỹ thuật tóm tắt AI hiện đại để đo lường và định lượng tự động, mô tả các mô hình học sâu phổ biến và các ứng dụng cụ thể. Một hướng dẫn thực tế về một nhiệm vụ phân đoạn CMR đơn giản được bao gồm. Chương kết thúc với một ý kiến lâm sàng về tác động trong tương lai của AI trong lĩnh vực này.

Chương 4: Chẩn đoán

Chương này bao gồm các ứng dụng lâm sàng của chẩn đoán bệnh tim mạch. Một ý kiến lâm sàng thảo luận về các tiêu chuẩn và hạn chế chẩn đoán hiện tại. Đánh giá kỹ thuật tóm tắt các đường ống học máy cổ điển và các mô hình truyền thống để chẩn đoán y tế, tiếp theo là các kiến trúc học sâu có liên quan để chẩn đoán có sự hỗ trợ của máy tính. Các ứng dụng ví dụ về chẩn đoán tự động dựa trên AI được giới thiệu, nêu bật những thách thức chính. Một hướng dẫn thực hành đề cập đến một nhiệm vụ chẩn đoán đơn giản dựa trên các phân đoạn MR tim

May 22, 202409:41