Gianluca Mongiello
회원 가입일: 2025
실버 리그
1389포인트
회원 가입일: 2025
AI 에이전트는 기존의 대규모 언어 모델(LLM)을 뛰어넘는 중대한 변화입니다. AI 에이전트는 단순히 텍스트 기반 솔루션을 생성하는 데 그치지 않고, 자율적으로 행동하여 솔루션을 실행할 수도 있습니다. 이 과정에서는 AI 에이전트에 대한 기본사항, LLM API와의 차이점, 실제로 AI 에이전트가 더하는 가치를 소개합니다. Google의 에이전트 백서를 바탕으로 한 이 과정은 에이전트 코드를 처음 작성하기 전에 필요한 이론적 토대를 제공하여 (단순한 텍스트 생성이 아닌) 자율적이고 목표 지향적인 행동의 관점에서 AI 시스템을 이해하고자 하는 개발자, 설계자, 기술 의사 결정권자에게 적합합니다. 커뮤니티 포럼에 참여하여 질문하고 토론하기
Cloud TPU 과정에 오신 것을 환영합니다. 다양한 시나리오에서 TPU의 장단점을 살펴보고 여러 TPU 가속기를 비교하여 적합한 것을 선택하는 데 도움을 드리겠습니다. 이 과정을 통해 AI 모델의 성능과 효율성을 극대화하는 전략을 배우고 유연한 머신러닝 워크플로에 있어 GPU/TPU 상호 운용성이 얼마나 중요한지 이해하게 될 것입니다. 흥미로운 콘텐츠와 실용적인 데모를 통해 TPU를 효과적으로 활용하는 방법을 단계별로 안내해 드리겠습니다.
AI를 뒷받침하는 강력한 하드웨어가 궁금하신가요? 이 모듈에서는 성능 최적화된 AI 컴퓨터를 분석하고 그 중요성을 알려드립니다. CPU, GPU, TPU가 어떻게 AI 태스크를 초고속으로 처리하는지, 각각의 고유한 특징은 무엇인지, 그리고 AI 소프트웨어에서 이를 최대한 활용하는 방법을 살펴보겠습니다. 이 과정을 마치면 AI 프로젝트에 적합한 GPU를 선택하는 방법을 정확히 알게 되어 AI 워크로드를 처리할 때 현명한 결정을 내릴 수 있게 됩니다.
AI 하이퍼컴퓨터를 시작할 준비가 되셨나요? 이 과정에서는 AI 하이퍼컴퓨터를 쉽게 시작할 수 있도록 도와드립니다. AI 하이퍼컴퓨터에 대한 기본사항을 다루고 AI 하이퍼컴퓨터가 AI의 AI 워크로드 처리에 어떤 도움을 주는지 살펴봅니다. GPU, TPU, CPU 등 하이퍼컴퓨터 내부의 다양한 구성요소와 니즈에 맞는 적절한 배포 방식을 선택하는 방법을 알아봅니다.
이 과정에서는 생성형 AI 모델을 배포하고 관리할 때 MLOps팀이 직면하는 고유한 과제를 파악하는 데 필요한 지식과 도구를 제공하고 Vertex AI가 어떻게 AI팀이 MLOps 프로세스를 간소화하고 생성형 AI 프로젝트에서 성공을 거둘 수 있도록 지원하는지 살펴봅니다.
책임감 있는 AI란 무엇이고 이것이 왜 중요하며 Google에서는 어떻게 제품에 책임감 있는 AI를 구현하고 있는지 설명하는 입문용 마이크로 학습 과정입니다. Google의 7가지 AI 원칙도 소개합니다.
이 과정은 입문용 마이크로 학습 과정으로, 대규모 언어 모델(LLM)이란 무엇이고, LLM을 활용할 수 있는 사용 사례로는 어떤 것이 있으며, 프롬프트 조정을 사용해 LLM 성능을 개선하는 방법은 무엇인지 알아봅니다. 또한 자체 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.
생성형 AI란 무엇이고 어떻게 사용하며 전통적인 머신러닝 방법과는 어떻게 다른지 설명하는 입문용 마이크로 학습 과정입니다. 직접 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.