끊임없이 변화하는 기술의 세상에서, AI가 결합된 서버리스 아키텍처는 고유한 기회와 도전 과제를 제시합니다. 뉴렐릭은 고객들이 이러한 발전을 활용하고 AI 기반 사용 사례에서 서버리스 역량을 최대한 활용할 수 있도록 지원하기 위해 모든 노력을 기울이고 있습니다. 뉴렐릭은 최근 AWS Lambda 응답 스트리밍 함수의 계측에 AI 모니터링을 통합하여 AI 애플리케이션에 맞게 맞춤화된 새로운 혜택을 제공한다고 발표했습니다.
응답 스트리밍이란 무엇이고 AI 애플리케이션에 왜 유용할까요?
응답 스트리밍은 AWS Lambda 함수가 전체 결과를 한꺼번에 보낼 때까지 기다리지 않고, 처리되는 동안에 점진적으로 출력을 전달할 수 있도록 합니다. 실시간 데이터 흐름을 용이하게 하는 이러한 접근 방식은 속도와 즉각적인 인사이트를 요구하는 AI 기반 애플리케이션에 특히 유용합니다.
AI는 신속한 데이터 처리와 의사 결정에 탁월하기 때문에, 응답 스트리밍에서 서버리스 AI 애플리케이션은 실시간으로 데이터를 스트리밍하여 레이턴시, 처리 시간 및 메모리 사용량을 줄이는 데 도움이 될 수 있습니다. 이를 통해 즉각적인 이상 감지, 동적 성능 조정, 실시간 데이터 분류, 예측 업데이트 등의 시나리오를 향상할 수 있으며, 궁극적으로 이는 보다 효과적으로 상호 작용이 가능한 사용자 경험으로 연결됩니다.
뉴렐릭이 어떻게 도움이 될 수 있을까요?
옵저버빌리티 분야의 선두기업인 뉴렐릭은 서버리스 함수, 특히 AI 작업을 중심으로 하는 함수를 모니터링하고 최적화하는 것과 관련된 복잡성에 대해 잘 알고 있습니다. 뉴렐릭 플랫폼은 세부적인 인사이트와 원활한 통합을 제공하여 AI 운영에서 명확성과 효율성을 보장해 줍니다.
- 응답별 실시간 인사이트: 서버리스 옵저버빌리티에 통합된 'AI 응답' 기능을 사용해 Lambda 함수를 통해 스트리밍되는 데이터를 실시간으로 추적하고 분석할 수 있습니다.
- 잘못된 호출 디버깅: 호출 기간 동안 모든 호출에 대한 즉각적인 가시성을 확보하여 메모리 할당을 최적화하고, 오류 해결을 간소화할 뿐 아니라 콜드 스타트 시간을 단축하고 AI 모델을 개선할 수 있습니다.
- 응답 스트리밍 메트릭: 'Streamed outbound bytes' 및 'Streamed outbound throughput' 메트릭을 활용해 스트리밍 출력 볼륨에 따라 AI 운영을 조정하여 수요를 효율적으로 충족할 수 있습니다.
다음 단계
응답 스트리밍 Lambda 함수를 계측하면 중요한 스트리밍 메트릭과 AI 응답을 수집해 전략적 의사 결정에 도움을 주고 워크플로우를 최적화할 수 있습니다.
이 블로그에 표현된 견해는 저자의 견해이며 반드시 New Relic의 견해를 반영하는 것은 아닙니다. 저자가 제공하는 모든 솔루션은 환경에 따라 다르며 New Relic에서 제공하는 상용 솔루션이나 지원의 일부가 아닙니다. 이 블로그 게시물과 관련된 질문 및 지원이 필요한 경우 Explorers Hub(discuss.newrelic.com)에서만 참여하십시오. 이 블로그에는 타사 사이트의 콘텐츠에 대한 링크가 포함될 수 있습니다. 이러한 링크를 제공함으로써 New Relic은 해당 사이트에서 사용할 수 있는 정보, 보기 또는 제품을 채택, 보증, 승인 또는 보증하지 않습니다.