Bài gốc: https://cloud.google.com/blog/products/compute/introducing-trillium-6th-gen-tpus
Tác giả: Ông Amin Vadhat, VP/GM, ML, Systems & Cloud AI
AI tạo sinh đang biến đổi cách chúng ta tương tác với công nghệ đồng thời mở ra những cơ hội lớn cho lĩnh vực kinh doanh. Tuy nhiên, những tiến bộ này đòi hỏi khả năng tính toán, bộ nhớ và giao tiếp lớn hơn bao giờ hết để đào tạo và tinh chỉnh các mô hình có khả năng nhất, cũng như dùng chúng để phục vụ cộng đồng người dùng toàn cầu. Trong hơn một thập kỷ qua, tại Google, chúng tôi đã phát triển phần cứng tùy chỉnh dành riêng cho AI, Bộ xử lý Tensor hoặc TPU, để thúc đẩy giới hạn của quy mô và độ hiệu quả.
Phần cứng này hỗ trợ một số cải tiến mà chúng tôi công bố tại sự kiện Google I/O hôm nay, bao gồm các mô hình mới như Gemini 1.5 Flash, Imagen 3 và Gemma 2.0; tất cả các mô hình này đều được đào tạo và sử dụng TPU. Để thúc đẩy giới hạn tiếp theo cho mô hình và giúp các bạn làm được điều tương tự, chúng tôi rất vui khi giới thiệu Trillium, TPU thế hệ thứ 6, loại TPU có hiệu năng cao nhất và tiết kiệm năng lượng nhất cho đến nay.
Trillium TPU đạt được hiệu năng tính toán ấn tượng, tăng 4,7 lần hiệu năng tính toán đỉnh trên mỗi chip so với TPU v5e. Chúng tôi đã tăng gấp đôi dung lượng và băng thông Bộ nhớ băng thông cao (HBM), đồng thời cũng tăng gấp đôi băng thông Kết nối liên chip (ICI) so với TPU v5e. Ngoài ra, Trillium còn được trang bị SparseCore thế hệ thứ ba, một bộ gia tốc chuyên dụng để xử lý các phần nhúng cực lớn phổ biến trong các tác vụ xếp hạng và đề xuất nâng cao. Trillium TPU giúp đào tạo các mô hình nền tảng tiếp theo nhanh hơn với độ trễ và chi phí thấp hơn. Điều quan trọng là TPU thế hệ thứ 6 của chúng tôi cũng là loại “xanh” nhất: Trillium TPU tiết kiệm năng lượng hơn 67% so với TPU v5e.
Trillium có thể mở rộng lên đến 256 đơn vị TPU trong một nhóm, duy trì băng thông cao, độ trễ thấp. Ngoài ra, với công nghệ đa lớp và Bộ xử lý Thông minh Titanium (IPUs), Trillium TPU có thể mở rộng quy mô lên hàng trăm nhóm, kết nối hàng chục nghìn chip trong một siêu máy tính có quy mô bằng một tòa nhà, tất cả được kết nối với nhau bằng mạng trung tâm dữ liệu có tốc độ petabit/giây.
Giai đoạn tiếp theo của đổi mới AI với Trillium
Hơn một thập kỷ trước, Google đã nhận thấy sự cần thiết của loại chip dành riêng cho máy học. Vào năm 2013, chúng tôi bắt đầu nghiên cứu công cụ tăng tốc độ tính toán AI chuyên dụng đầu tiên trên thế giới, TPU v1, theo sau là Cloud TPU đầu tiên vào năm 2017. Không có TPU, nhiều dịch vụ phổ biến nhất của Google như tìm kiếm bằng giọng nói theo thời gian thực, nhận dạng đối tượng ảnh, dịch ngôn ngữ, cùng với các mô hình nền tảng tiên tiến như Gemini, Imagen và Gemma - sẽ không hoạt động. Trên thực tế, quy mô và hiệu quả của TPU đã cho phép thực hiện công việc mang tính nền tảng trên Transformers trong Google Research, nền tảng thuật toán của AI tạo sinh hiện đại.
Hiệu suất tính toán trên mỗi chip Trillium tăng 4,7 lần
Ban đầu TPU được thiết kế cho mạng nơ-ron và chúng tôi luôn nỗ lực cải thiện thời gian đào tạo cũng như thời gian phản hồi. Trillium đạt hiệu suất tính toán tối đa trên mỗi chip cao hơn 4,7 lần so với TPU v5e. Để đạt được mức hiệu suất này, chúng tôi đã nới kích thước của đơn vị nhân ma trận (MXU) và tăng tốc độ xung nhịp. Ngoài ra, SparseCores tăng tốc hệ thống nhúng bằng cách giảm tải quyền truy cập ngẫu nhiên từ TensorCores.
Dung lượng và băng thông cao gấp 2 lần ICI và Bộ nhớ băng thông cao (HBM)
Việc tăng gấp đôi dung lượng và băng thông HBM cho phép Trillium hoạt động với các mô hình lớn hơn với nhiều bộ đệm hơn. HBM thế hệ tiếp theo cho phép băng thông bộ nhớ cao hơn, cải thiện hiệu suất sử dụng năng lượng và kiến trúc kênh linh hoạt để tăng bộ nhớ, cải thiện thời gian đào tạo và giảm độ trễ đối với các mô hình lớn. Dung lượng mô hình và bộ đệm nhiều gấp đôi, mang lại khả năng truy cập nhanh hơn và tính toán tốt hơn, nhằm tăng khối lượng công việc máy học. Nhân đôi băng thông ICI cho phép mở rộng quy mô huấn luyện và suy luận lên hàng chục nghìn chip. Điều này cũng cho phép các công việc đào tạo và suy luận mở rộng quy mô lên hàng chục nghìn chip, nhờ sự kết hợp giữa các kết nối ICI quang tùy chỉnh với 256 chip trong một nhóm và Mạng Google Jupiter giúp mở rộng thành hàng trăm nhóm trong một cụm.
Trillium sẽ cung cấp năng lượng cho thế hệ mô hình AI tiếp theo
Trillium TPU sẽ cung cấp năng lượng cho các mô hình và tác nhân AI (agents) thế hệ tiếp theo. Chúng tôi mong muốn mang đến cho khách hàng khả năng tiên tiến này để thúc đẩy quá trình chuyển đổi kỹ thuật số của họ. Chẳng hạn: công ty xe tự hành Nuro mong muốn kiến tạo cuộc sống tốt đẹp hơn thông qua công nghệ robot bằng cách huấn luyện các mô hình của họ bằng Cloud TPU; Deep Genomics đang thúc đẩy tương lai nghiên cứu thuốc bằng AI và mong đợi cách mô hình nền tảng tiếp theo của họ hỗ trợ bởi Trillium sẽ thay đổi cuộc sống của bệnh nhân; và Deloitte, Đối tác Google Cloud của năm về AI, sẽ dùng Trillium để chuyển đổi các doanh nghiệp bằng AI tạo sinh. Cửa sổ ngữ cảnh dài trên Trillium TPU có thể hỗ trợ huấn luyện và phục vụ các mô hình đa phương thức, qua đó cho phép Google DeepMind huấn luyện và cho ra đời các thế hệ mô hình Gemini nhanh hơn, hiệu quả hơn và có độ trễ thấp hơn bao giờ hết.
“Gemini 1.5 Pro là mô hình AI lớn nhất và năng lực nhất của Google, nó được đào tạo bằng hàng chục nghìn bộ xử lý TPU. Chúng tôi rất vui khi công bố TPU thế hệ thứ 6, và chúng tôi mong muốn trải nghiệm sự gia tăng hiệu suất cũng như hiệu quả hoạt động huấn luyện và suy luận trên mô hình Gemini” - ông Jeff Dean, người đứng đầu bộ phận Google DeepMind và Google Research cho hay.
“Bộ xử lý Google Cloud TPU là yếu tố thay đổi cuộc chơi đối với Nuro! Chúng tôi đã có thể tiết kiệm chi phí huấn luyện lên đến 180% bằng cách tận dụng Cloud TPU v5e, so với khi dùng các giải pháp thay thế khác. Chúng tôi đã nâng cao các mô hình về nhận thức và hành vi để vận hành Nuro an toàn trên các nẻo đường với tính năng tự động dựa trên AI, thông qua sức mạnh của TPU. Chúng tôi mong muốn phát huy thành tựu của mình bằng cách tận dụng Trillium TPU thế hệ tiếp theo. Google Cloud đi đầu trong công nghệ cơ sở hạ tầng AI và chúng tôi tự hào được hợp tác với họ trên các mô hình AI thế hệ tiếp theo”, - ông Andrew Clare, giám đốc công nghệ (CTO) của Nuro chia sẻ.
"Tại Deep Genomics, chúng tôi là một nhóm đa ngành gồm các nhà khoa học sinh học và AI tiên phong trên con đường nghiên cứu và phát triển gen. Sứ mệnh của chúng tôi là tạo ra và áp dụng các mô hình AI tiên tiến để phá vỡ giới hạn trong lĩnh vực can thiệp trị bệnh bằng RNA. Chúng tôi rất vui mừng khi Trillium TPU thế hệ thứ 6 được công bố và được truyền cảm hứng từ cơ hội hợp tác với Google Cloud, nhằm tăng cường gấp nhiều lần hoạt động huấn luyện và suy luận cho mô hình nền tảng AI của chúng tôi. Điều này sẽ giúp chúng tôi có khả năng thay đổi cuộc sống của bệnh nhân" - theo ông Brendan Frey, Nhà sáng lập và Giám đốc thông tin (CIO) của Deep Genomics
“Cam kết của Deloitte trong việc giúp khách hàng khai thác sức mạnh công nghệ là cốt lõi trong sứ mệnh của chúng tôi. Việc công bố Trillium TPU thế hệ tiếp theo của Google Cloud có thể giúp tối ưu hóa hiệu suất và chi phí, qua đó mang lại giá trị kinh doanh thực sự. Cùng với Google, chúng tôi sẽ tiếp tục cộng tác với các khách hàng trong các ngành và lĩnh vực để khai thác và mở khóa các khả năng của AI tạo sinh” - ông Matt Lacey, Giám đốc thương mại của liên minh Alphabet Google, Deloitte UK cho biết.
Siêu máy tính Trillium và AI
Trillium TPU là một phần trong Siêu máy tính AI của Google Cloud, một kiến trúc siêu máy tính đột phá được thiết kế đặc biệt cho công việc AI tiên tiến. Nó tích hợp liền mạch cơ sở hạ tầng được tối ưu hóa về hiệu suất (bao gồm Trillium TPU), khung phần mềm mã nguồn mở và mô hình tiêu thụ linh hoạt. Cam kết của chúng tôi đối với các thư viện nguồn mở như JAX, PyTorch/XLA và Keras 3 là trao quyền cho các nhà phát triển. Việc hỗ trợ cho JAX và XLA đồng nghĩa rằng các mô tả về mô hình được viết cho bất kỳ thế hệ TPU nào trước đó sẽ liền mạch với khả năng mạng và phần cứng mới của Trillium TPU. Chúng tôi cũng hợp tác với Hugging Face về Optimum-TPU để huấn luyện mô hình một cách hợp lý.
“Sự hợp tác của chúng tôi với Google Cloud giúp người dùng Hugging Face dễ dàng tinh chỉnh và chạy các mô hình mở trên cơ sở hạ tầng AI của Google Cloud, bao gồm cả TPU. Chúng tôi rất vui với việc tăng tốc hơn nữa AI mã nguồn mở với Trillium TPU thế hệ thứ 6 và chúng tôi hy vọng các mẫu mô hình mã nguồn mở sẽ tiếp tục mang lại hiệu năng tối ưu nhờ hiệu suất trên mỗi chip tăng 4,7 lần so với thế hệ trước. Chúng tôi sẽ giúp tất cả các nhà phát triển AI có thể dễ dàng sử dụng hiệu suất của Trillium thông qua thư viện Optimum-TPU mới của chúng tôi!" - theo ông Jeff Boudier, Trưởng bộ phận Sản phẩm của Hugging Face.
Công ty Sada đã là Đối tác Google Cloud của năm kể từ 2017 và cung cấp dịch vụ Google Cloud để mang đến những hiệu quả tối đa.
“Với tư cách là Đối tác cao cấp của Google Cloud, SADA có bề dày 20 năm hoạt động với vai trò là doanh nghiệp tiên phong về AI trên thế giới. Hiện tại, chúng tôi đang nhanh chóng tích hợp AI cho hàng nghìn khách hàng. Với kinh nghiệm dày dặn và kiến trúc Siêu máy tính AI, chúng tôi rất nóng lòng được giúp khách hàng của mình bứt phá giới hạn tiếp theo của các mô hình AI tạo sinh với Trillium.” - ông Miles Ward, giám đốc công nghệ (CTO) của Sada chia sẻ.
Khối lượng công việc AI/Máy học yêu cầu mô hình linh hoạt để phù hợp với từng trường hợp sử dụng. Trình Dynamic Workload Scheduler (DWS) giải quyết quyền truy cập vào tài nguyên AI/Máy học và giúp khách hàng tối ưu hóa chi phí. Chế độ khởi động linh hoạt có thể cải thiện trải nghiệm đối với khối lượng công việc nhiều như huấn luyện, tinh chỉnh hoặc công việc mang tính hàng loạt, bằng cách lên lịch đồng thời cho tất cả các công cụ cần thiết, bất kể điểm bắt đầu của chương trình: Vertex AI Training, Google Kubernetes Engine (GKE) hoặc Google Cloud Engine.
Lightricks rất vui mừng khi có thể thu về giá trị nhờ vào sự kết hợp của hiệu suất tăng lên và hiệu quả đạt được từ Siêu máy tính AI.
“Chúng tôi đã sử dụng TPU cho các mô hình chuyển văn bản thành hình ảnh và chuyển văn bản thành video kể từ Cloud TPU v4. Với hiệu suất của siêu máy tính TPU v5p và AI, tốc độ huấn luyện của chúng tôi tăng gấp 2,5 lần! Thế hệ thứ 6 của Trillium TPU thật đáng kinh ngạc với hiệu suất tính toán trên mỗi chip tăng 4,7 lần và cải thiện Băng thông và Dung lượng HBM gấp 2 lần so với thế hệ trước. Thật đúng lúc vì chúng tôi đang mở rộng mô hình chuyển văn bản thành video. Chúng tôi cũng mong muốn sử dụng trình Dynamic Workload Scheduler để quản lý các công việc suy luận hàng loạt và TPU trong tương lai” - ông Yoav HaCohen, Tiến sĩ, Trưởng nhóm nghiên cứu AI tạo sinh của Lightricks cho hay.
Tìm hiểu thêm về Trillium TPU của Google Cloud
Google Cloud TPU là công nghệ xử lý AI tiên tiến, được tùy chỉnh và tối ưu hóa để hỗ trợ các mô hình AI quy mô lớn. TPU - chỉ có sẵn thông qua Google Cloud - mang lại hiệu suất vượt trội và tiết kiệm chi phí cho việc huấn luyện và cung cấp các giải pháp AI. Cho dù là sự phức tạp của các mô hình ngôn ngữ lớn hay tiềm năng sáng tạo của việc tạo hình ảnh, TPU cho phép các nhà phát triển và nhà nghiên cứu vượt qua ranh giới trong thế giới của AI.
Thế hệ thứ 6 của Trillium TPU là đỉnh cao của hơn một thập kỷ nghiên cứu và đổi mới và sẽ ra mắt vào cuối năm nay. Để tìm hiểu thêm về Trillium TPU và Siêu máy tính AI, vui lòng điền vào biểu mẫu này và đội sales của chúng tôi sẽ liên hệ
Nếu bạn đang tìm kiếm dịch vụ thuê máy chủ có GPU, hãy liên hệ với chúng tôi ngay hôm nay để được tư vấn và hỗ trợ tốt nhất. Chúng tôi cam kết mang đến những giải pháp tối ưu, giúp bạn nâng cao hiệu suất công việc và đạt được thành công vượt trội trong mọi dự án.
Trả lờiXóaMksport là nhà cái thể thao liên kết với CLB Empoli.
Trả lờiXóaHoàn thành thêm đầy đủ thông tin nhận 100K
Báo danh liên tục 30 ngày nhận 2.600K
Bảo hiểm cược thua đơn cược đầu tiên
Mưa lì xì mua Euro
Khang Điềnlà một trong những chủ đầu tư uy tín hàng đầu tại Việt Nam, với hơn 20 năm kinh nghiệm. Công ty nổi tiếng với các dự án chất lượng cao và dịch vụ chăm sóc khách hàng chuyên nghiệp, chú trọng yếu tố bền vững và thân thiện với môi trường.
Trả lờiXóaNhận xét này đã bị tác giả xóa.
Trả lờiXóaĐịa chỉ www.iwcchampionship.com là địa chỉ website cung cấp kèo nhà cái nhanh chóng của tất cả các giải đấu bóng đá lớn nhỏ trên toàn thế giới.
Trả lờiXóaKhi bạn cần in tem nhãn cho sản phẩm của mình, điều quan trọng nhất là tem nhãn phải chất lượng cao, rõ ràng và bền vững theo thời gian. Tại In Tem Nhãn, chúng tôi chuyên cung cấp các giải pháp in tem nhãn phù hợp cho mọi ngành nghề và nhu cầu, từ thực phẩm, mỹ phẩm đến hàng tiêu dùng. Tem nhãn không chỉ giúp xác định sản phẩm mà còn góp phần quan trọng trong việc xây dựng thương hiệu và thu hút khách hàng.
Trả lờiXóaVới công nghệ in ấn hiện đại, In Tem Nhãn cam kết mang đến cho bạn những sản phẩm tem nhãn có độ sắc nét cao, màu sắc tươi sáng và độ bền vượt trội. Chúng tôi cung cấp đa dạng các loại tem nhãn như tem giấy, tem nhựa, tem chống thấm nước, tem bảo hành và nhiều loại khác, tùy thuộc vào nhu cầu của khách hàng. Bạn có thể dễ dàng tùy chỉnh kích thước, chất liệu, và thiết kế để phù hợp với sản phẩm của mình.
Để khám phá thêm về các dịch vụ in tem nhãn và nhận báo giá chi tiết, hãy truy cập trang web của chúng tôi tại In Tem Nhãn. Chúng tôi luôn sẵn sàng đồng hành cùng bạn trong việc tạo ra những sản phẩm in ấn tốt nhất.
Nhận định, Soi kèo bóng đá hôm nay và ngày mai - Dự đoán tỷ số, tỷ lệ, soi kèo, nhận định, đội hình nhanh và chính xác nhất.
Trả lờiXóaMicrosoft Dynamics 365: As a Microsoft Partner in Australia, we combine our expertise with business ingenuity to design and implement intelligent CRM & ERP business applications for your business.
Trả lờiXóaWebsite: https://havi.com.au/microsoft-dynamic-365
Email: info@havi.com.au
Address: Level 11, 456 Lonsdale Street, Melbourne Victoria 3000 Australia
Hotline: 1300696366
Zipcode: 3000
#MicrosoftDynamics365 #Dynamics365
Lịch Treo Tường và Lịch Để Bàn Sáng Tạo
Trả lờiXóaChúng tôi cung cấp in lịch Tết treo tường và để bàn với thiết kế sáng tạo, giúp người dùng có thể dễ dàng lựa chọn kiểu dáng phù hợp cho không gian sử dụng.