• Link to Facebook
  • Link to LinkedIn
  • Link to X
  • Link to Youtube
  • 로그인
  • 회원가입
  •  한글 한글 한글 ko
  • English English 영어 en
OPENMARU APM
  • 오픈마루
    • 회사소개
    • 연혁
    • 오픈마루 CI
  • 제품
    • Cloud APM
      • Application 모니터링
      • Openshift & Kubernetes 모니터링
      • WEB/WAS 모니터링
      • URL 모니터링
      • Cubrid 모니터링
    • Cluster
    • Dashboard
    • COP
    • CogentAI
    • iAP
    • Observability
  • 오픈소스
    • 쿠버네티스
    • 아파치 톰캣
    • CentOS
  • 레드햇
    • Red Hat Enterprise Linux
    • Red Hat OpenShift
    • Red Hat JBoss EAP
  • 견적 문의
    • 견적문의
    • 가격 안내
  • 조달물품
    • G2B 딜 등록
    • 조달물품 OPENMARU APM
    • 조달물품 OPENMARU Cluster
    • 조달물품 OPENMARU iAP
    • 혁신장터
    • 찾아가는 클라우드 네이티브 세미나
  • 레퍼런스
  • 고객지원
  • 문서
  • 블로그
    • 오픈마루
    • 구매 관련
    • 기술 지원
    • 트러블 슈팅
    • White Paper
  • Click to open the search input field Click to open the search input field Search
  • Menu Menu

AI가 어떻게 WAS OOM (Out Of Memory) 에러의 원인을 찾을까요?

이 글은 WAS OOM 장애 대응을 주제로, CogentAI가 APM 데이터를 어떻게 해석하고 실시간으로 원인과 개선 방향을 도출하는지를 소개합니다.

sop

AI 기반 VibeOps 환경에서 달라지는 장애 대응의 방식


Java 기반 서비스 운영에서 OOM(Out Of Memory)은 가장 난이도가 높은 장애 유형 중 하나입니다. 단순히 메모리를 늘린다고 해결되지 않고, 재현도 어렵고, 발생 시점에는 이미 서비스 품질이 무너져 있는 경우가 많습니다.

그래서 많은 운영팀이 “OOM은 터지고 나서야 원인을 찾는다”는 구조적 한계를 안고 있습니다.

이번 영상은 이러한 전통적인 장애 대응 방식을 근본적으로 바꾸는 장면을 보여줍니다. CogentAI가 APM 데이터를 기반으로 서비스 이상 징후를 감지하고, 원인을 추론하고, 개선 방향까지 제시하는 전 과정을 실시간으로 수행하는 흐름을 그대로 담고 있기 때문입니다.

이 글에서는 해당 영상을 바탕으로,

    • AI가 Java OOM 장애를 어떻게 인지하고
    • APM 데이터를 어떤 방식으로 해석하며
    • 운영 조직과 IT 책임자의 역할이 어떻게 변화하는지

를 기술 관점에서 차분히 설명드리겠습니다.

Java 기반 서비스에서 OOM(Out Of Memory) 장애를 제대로 해결하려면, 단순히 “메모리가 부족했다”라는 결론을 넘어 어떤 트랜잭션이 어떤 형태로 메모리를 소진했고, JVM이 어떤 신호로 무너졌는지를 한 줄의 인과로 엮어야 합니다.

실무에서 이 연결고리가 끊어지는 이유는 데이터가 흩어져 있기 때문입니다. 트랜잭션은 APM에, JVM 메모리/GC는 메트릭에, 징후는 로그에, 환경 조건(컨테이너 제한, 힙 사이징, 배포 이력)은 운영 시스템에 따로 존재합니다.

장애가 터지면 사람은 이 조각들을 손으로 모아 머릿속에서 재구성합니다. 시간이 오래 걸리고, 결정적으로 “놓치는 지점”이 생깁니다.

OOM 상황에서 AI가 원인들을 찾고 결과를 도출해 가는 과정에 대한 설명


이 영상은 OOM(Out Of Memory) 장애 발생 상황을 어떻게 분석하고 원인을 파악하는지 실전 사례를 중심으로 설명하는 기술 분석 영상입니다. 

영상의 초반부에서는 서비스가 정상적으로 운영되고 있습니다. 트랜잭션 지연도 없고, 사용자는 문제를 인식하지 못합니다.

그러나 잠시 후에 요청이 정상적으로 처리되지 못하고 펜딩 상태가 누적되기 시작합니다.

이 단계는 실제 운영 현장에서 가장 위험한 구간입니다. 아직 장애 알람은 명확하지 않지만, 내부적으로는 스레드 대기, GC 정체, DB 응답 지연 같은 “붕괴 전 신호”가 이미 발생하고 있기 때문입니다.

이후 too many fetch 경고가 발생합니다. 이는 단순 트래픽 증가 신호일 수도 있지만, 경험적으로 보면 대량 데이터 조회, 비효율적인 API 호출, 비정상적인 요청 패턴이 누적될 때 함께 등장하는 경우가 많습니다.

본격적으로 /api/orders/all 트랜잭션이 60초 이상 지연되고 있음을 확인합니다. 이어서는 GC가 빈번하게 발생하고 메모리 사용량이 비정상적으로 높아진 상황이 감지됩니다. 이 조합은 Java 운영자에게 매우 익숙한 시그널입니다. GC 오버헤드 국면으로 진입하고 있으며, 이 상태가 지속되면 OOM으로 이어질 가능성이 높다는 의미입니다.

마지막으로CogentAI는 쿼리 개선을 근본 대응 방안으로 제시합니다. 이 지점이 이 영상의 핵심입니다. AI는 “메모리가 부족하다”는 결과가 아니라, “왜 메모리가 부족해졌는지”를 트랜잭션과 데이터 접근 구조 관점에서 설명하고 있습니다.

AI는 WAS OOM 장애를 어떻게 “사람보다 먼저” 이해하는가?


CogentAI의 접근 방식은 기존 모니터링 툴과 근본적으로 다릅니다. 단순 메트릭 알람이 아니라, 관측 데이터와 운영 지식을 결합한 추론 기반 분석 구조를 사용합니다.

Java OOM은 하나의 원인으로 발생하지 않습니다. 대부분 다음과 같은 연결 고리로 축적됩니다.

특정 API 호출 증가 → 대량 데이터 조회 → 객체 할당 급증 → 힙 사용량 증가 → GC 빈발 → GC 오버헤드 → 응답 지연 → 장애

CogentAI는 이 흐름을 “사후 분석”이 아니라 실시간 인과 체인으로 재구성합니다. APM 트레이스, JVM 힙 메트릭, GC 발생 패턴, 트랜잭션 지연 데이터를 시간축 기준으로 정렬하여 “어떤 이벤트가 먼저 시작되었고, 무엇이 다음 문제를 유발했는지”를 구조적으로 정리합니다. 이때 “찾는다”는 표현은 보통 세 단계로 구체화됩니다.

첫째, 장애의 형태를 분류합니다.

Java OOM은 Java heap space 처럼 힙 고갈일 수도 있고, GC가 대부분의 시간을 쓰면서도 회수가 거의 안 되는 GC overhead limit exceeded 형태로 나타날 수도 있습니다. 후자는 “CPU 시간의 대부분을 GC가 쓰지만 회수되는 메모리가 매우 적다”는 의미로 널리 알려져 있습니다. 이 분류가 중요한 이유는, 같은 “느려짐/타임아웃”이라도 해법이 전혀 달라지기 때문입니다.

둘째, 장애가 사용자 체감(트랜잭션 지연)으로 번지는 경로를 재구성합니다. 

GC가 잦아지고(또는 Full GC가 늘고) 애플리케이션 스레드가 멈추면, 트랜잭션 지연·타임아웃·헬스체크 실패가 연쇄적으로 발생할 수 있습니다.  즉 “느려졌습니다”는 증상은, 종종 “GC로 인한 정지/오버헤드”라는 실행 레벨의 사건으로 환원됩니다.

셋째, 원인 후보를 ‘트랜잭션/쿼리/객체 생애주기’로 좁힙니다. 

APM은 느린 트레이스(예: 특정 API), DB 쿼리 지연, 호출 폭증을 보여주고, JVM 메트릭은 힙 사용량·GC 빈도·GC 시간 비중을 보여줍니다. 이 상관관계를 통해 “어떤 API가 호출을 폭증시켰고, 그 결과 할당이 급증해 GC가 과열됐으며, 결국 OOM으로 수렴했다” 같은 인과를 만들 수 있습니다.

이 방식의 핵심은 AI가 장애를 이벤트 목록이 아니라 시스템 동작 흐름으로 해석한다는 점입니다. 그래서 단순히 “GC가 많다”는 메시지가 아니라, “이 트랜잭션 구조가 GC 압박을 만들고 있으며, 이 상태가 지속되면 OOM으로 수렴한다”는 설명이 가능해집니다.

AI가 어떻게 APM의 정보들을 획득해서 OOM 문제의 원인을 찾아 IT 관리자에게 알려주는지


APM은 이미 많은 정보를 제공합니다. 문제는 사람이 이 데이터를 실시간으로 종합하기 어렵다는 점입니다.

운영자는 다음을 동시에 봐야 합니다.

  • 어떤 API가 느려졌는지
  • 어느 쿼리가 병목인지
  • 힙 사용량과 GC 패턴은 어떤지
  • 요청 증가와 지연의 상관 관계는 무엇인지

CogentAI는 이 과정을 자동화합니다. 우선 사용자 영향도가 큰 트랜잭션을 식별합니다. 영상에서는 /api/orders/all
이 가장 먼저 추출됩니다. 그 다음 해당 트랜잭션 내부에서 가장 긴 구간, 즉 60초 이상 소요된 DB 쿼리를 자동으로 분리합니다.

AI가 “APM 정보를 획득한다”는 말은, 실무적으로는 (1) 수집 → (2) 정규화/문맥화 → (3) 추론/요약 → (4) 조치 제안의 흐름으로 이해하시면 가장 정확합니다.

먼저 수집 단계에서 핵심은 다층 데이터의 동시 확보입니다. 

OOM은 단독 신호가 아니라 복합 신호로 나타나기 때문입니다. 트랜잭션 관점에서는 응답시간 급증, 특정 URL의 지연, DB 쿼리 장기화가 보이고, JVM 관점에서는 힙 사용률 상승, GC 빈도 상승, GC 시간 비중 증가 같은 신호가 겹칩니다. APM 업계에서도 “트레이스(느린 요청)와 JVM 런타임 메트릭(힙/GC)을 함께 봐야 한다”는 방식이 일반적입니다. 

정규화/문맥화는 여기서 AI가 강해지는 지점입니다. 

사람은 대시보드마다 단위와 의미가 다른 값을 눈으로 맞춥니다. 반면 AI는 “동일 시간축”에서 이벤트를 정렬하고, 경고(too many fetch) → 특정 트랜잭션 지연 → GC 빈발/메모리 고갈의 순서를 자동으로 재구성할 수 있습니다. 특히 ‘질의응답’ 형태로 운영자가 “지금 무슨 일이 벌어지고 있지?”라고 물었을 때, AI는 단순히 경고를 읽는 것이 아니라 가장 영향도가 큰 후보(핵심 트랜잭션/핵심 쿼리)부터 제시하는 방식으로 응답해야 실무 가치가 생깁니다.

추론/요약 단계 

요한 것은, AI가 “정답을 단정”하는 것이 아니라 증거 기반으로 원인 후보를 순위화하고, 각 후보를 검증하는 다음 액션까지 내주는 것입니다. 예컨대 “ /api/orders/all 에서 60초 이상 지연이 발생했고, 같은 시간대에 힙 사용량이 높고 GC가 빈번했다면 GC 오버헤드 가능성이 크다”처럼 말입니다. GC 과열은 트랜잭션 지연과 직접적으로 연결될 수 있다는 점이 여러 실무 문서에서 설명됩니다. 

마지막으로 조치 제안

“메모리 늘리세요” 같은 단문으로 끝나면 실패합니다. OOM 대응은 대체로 즉시 완화(서비스 안정화) / 근본 원인 제거(코드·쿼리·캐시·객체 생애주기) / 재발 방지(관측·가드레일)의 3단 구성이기 때문입니다. 예를 들어 쿼리 지연이 촉발점이면 인덱스/쿼리 개선이 우선이고, 할당 폭증이면 페이징/배치/스트리밍 처리, 캐시 상한, DTO 슬림화 같은 변경이 우선입니다. 그리고 재발 방지 관점에서는 OOM 시점의 증거를 남겨야 합니다. JVM 옵션으로 OOM 발생 시 힙 덤프를 남기는 방식(예:HeapDumpOnOutOfMemoryError
, 덤프 경로 지정 등)은 널리 사용되는 정석입니다. 

AI가 WAS OOM (Out Of Memory) 에러의 원인 찾는 방법 - 영상 보러가기

AI로 VibeOps와 같은 환경이 구성되면 IT 책임자의 역할은 어떻게 변화되는지


VibeOps를 “운영 자동화” 정도로 이해하면, 실제 변화의 핵심을 놓치게 됩니다. VibeOps는 여러 글에서 운영자의 판단을 돕는 AI 코파일럿, 그리고 사람 개입을 최소화하는 자율 운영 방향성으로 설명됩니다. 이 말의 실체는 역할 분담의 재설계입니다.

기존 IT 책임자의 주된 부담은 “문제가 났을 때, 누가 어떤 근거로 판단하고 조치했는가”를 조직적으로 책임지는 것이었습니다. 그런데 AI가 관측 데이터를 읽고, 원인 후보와 근거를 정리해주며, 표준 조치(예: 쿼리 개선 제안, 캐시 상한, 롤백/스케일링)를 플레이북 형태로 연결하면, 책임자의 무게 중심은 다음으로 이동합니다.

  • 관측/운영의 ‘정의’를 관리합니다.

무엇을 SLO로 볼지, 어떤 임계치가 진짜 위험 신호인지, 어떤 이벤트를 장애로 선언할지 같은 “운영의 언어”를 표준화합니다.

  • 가드레일을 설계합니다.

AI가 제안하는 조치가 언제 자동 실행될 수 있고(저위험), 언제 승인/검토가 필요한지(고위험)를 정책으로 나눕니다.

  • 조직 학습을 촉진합니다.

장애가 발생할 때마다 개인의 경험으로 사라지지 않도록, 근거/결론/재발 방지를 지식으로 축적합니다(런북, 아키텍처 결정 기록, 회고).

정리하면, IT 책임자는 “장애 원인 추적의 최전선”에서 점차 물러나고, 운영 체계(데이터·정책·자동화·학습)의 설계자로 이동합니다. 이것이 VibeOps가 의미하는 변화의 본질입니다.

사람이 WAS OOM 원인을 찾기 어려운 이유


현장에서 OOM 장애가 특히 어려운 이유는 구조적 특성 때문입니다.

OOM은 “원인이 하나”인 장애가 아니라 “조건이 맞아떨어질 때 폭발”하는 장애인 경우가 많습니다. 그래서 숙련된 Java 엔지니어도 원인을 특정하지 못하는 상황이 생깁니다. 대표적인 난점은 다음과 같은 성격을 가집니다. 

첫째, 누적형 문제입니다.

메모리 누수나 힙 블로팅은 서서히 진행되다가 임계점에서 터집니다. 그 시점에는 이미 원인 트랜잭션이 지나갔고, 힙에는 “결과(쌓인 객체)”만 남아 있을 수 있습니다. “누수가 숨겨져 있어 찾기 어렵고, 부풀어 오른 뒤에는 원인 추적이 거의 불가능해진다”는 유형의 설명은 JVM 모니터링 난제로 자주 언급됩니다.

둘째, 증거가 사라집니다.

OOM 직전의 힙 상태(무엇이 얼마나 쌓였는지)를 보려면 힙 덤프가 필요하지만, 준비가 안 되어 있으면 장애 순간에 덤프를 남기지 못하고 프로세스가 재시작되면서 단서가 휘발됩니다. 그래서 OOM 시, 자동 덤프 남기기 같은 “사전 장치”가 중요해집니다.

셋째, 원인-증상의 경계가 흐립니다. 

예를 들어 “쿼리 지연”이 보이면 DB가 원인처럼 보이지만, 실제로는 애플리케이션이 GC로 멈춰 커넥션을 제때 처리하지 못한 결과일 수 있습니다. 반대로 GC 과열이 보여도, 진짜 원인은 페이징 없는 대량 조회로 인한 객체 할당 폭증일 수 있습니다. 이 교차 영역이 엔지니어의 경험 의존 영역이 되는 순간, 분석 속도는 급격히 느려집니다.

APM이 있어도 AI가 필요한 이유


APM은 관측 도구입니다. AI는 해석 도구입니다.
APM은 “무슨 일이 발생했는지”를 보여줍니다. AI는 “왜 그렇게 되었는지”를 설명합니다.

APM이 제공하는 것은 대개 “관측치”입니다. 느린 트랜잭션, 에러율, 외부 호출, 쿼리 시간 같은 신호가 쌓입니다. 그러나 OOM의 원인 규명은 관측치를 보는 것만으로 끝나지 않고, 해석(왜 그런가)과 검증(정말 그게 원인인가)이 필요합니다.

여기서 AI가 할 수 있는 일은, 단순히 대시보드를 읽는 것이 아니라 상관관계를 ‘사람이 조치 가능한 이야기’로 바꾸는 것입니다.

  • AI는 트레이스에서 “가장 영향도가 큰 트랜잭션”을 뽑고(예: /api/orders/all), 그 트랜잭션의 하위 구간에서 “가장 비정상적인 구간”을 찾습니다(예: 특정 쿼리가 60초 이상).
  • 동시에 JVM 메트릭에서 “GC가 과열된 징후”를 확인합니다(짧은 주기의 GC 반복, 힙 상단 고정, 회수량 감소). GC 과열이 지연/타임아웃을 유발할 수 있다는 점은 실무 문헌에서도 반복됩니다. 
  • 그런 다음 “원인 후보의 사슬”을 만듭니다. 예: 호출 폭증(too many fetch) → 대량 조회/비효율 쿼리 → 객체 할당 급증 → GC 빈발/오버헤드 → 응답 지연/펜딩 → 장애. 

그리고 중요한 점은, AI의 최종 제안이 “메모리 증설”이 아니라 쿼리 구조 개선이라는 점입니다. 이는 OOM을 단순 인프라 문제로 보지 않고, 애플리케이션 구조 문제로 해석했다는 의미입니다.

“메모리 증설”은 완화책이고, “쿼리 개선”은 근본 대책이며, “페이징/캐싱/상한”은 재발 방지 장치입니다. 이 구조를 한 번에 정리해 주는 것이 사람이 APM만 보고 하려면 가장 오래 걸리는 부분입니다.

VibeOps 환경에서 IT 책임자의 역할은 어떻게 바뀌는가


VibeOps 환경이 구축되면 운영자의 역할은 근본적으로 이동합니다.

기존에는 IT 책임자가

  • 장애 원인을 직접 추적하고
  • 로그를 뒤지고
  • 개발자와 밤샘 회의를 하며
  • 판단을 내려야 했습니다.

AI 기반 운영 환경에서는 역할의 중심이 다음으로 이동합니다.

  • 어떤 지표를 운영 기준으로 삼을 것인가
  • 자동 대응과 승인 대응의 경계를 어디에 둘 것인가
  • 장애 대응 지식을 어떻게 축적하고 재사용할 것인가
  • 조직의 운영 플레이북을 어떻게 표준화할 것인가

즉, 사람은 분석 노동에서 벗어나 운영 체계 설계자로 이동합니다. 이것이 VibeOps가 의미하는 진짜 변화입니다.

이 영상이 보여주는 가장 중요한 메시지


이 영상이 전달하는 핵심은 단순히 “AI가 빠르다”는 이야기가 아닙니다.

  • 장애를 사후 복구가 아니라 실시간 추론 문제로 바꾼다는 점
  • 메모리 문제를 인프라 이슈가 아니라 애플리케이션 구조 문제로 연결한다는 점
  • 운영자의 역할을 수동 대응자가 아니라 운영 전략 설계자로 이동시킨다는 점

이 세 가지가 동시에 나타나고 있습니다.

Java OOM은 앞으로도 사라지지 않습니다. 하지만 OOM을 “운 좋으면 찾고, 운 나쁘면 재시작하는 사고”에서 근거 기반 자동 분석과 구조 개선의 문제로 바꾸는 것은 이미 현실이 되고 있습니다.

CogentAI와 VibeOps는 바로 그 변화의 방향을 보여주고 있습니다.

덧붙여, 운영 품질 관점에서 AI가 함께 안내해야 하는 필수 항목이 있습니다. 재발 방지를 위해 OOM 시점의 증거를 남기는 장치(힙 덤프 자동 생성, 경로 지정 등)는 사후 분석의 성패를 가릅니다. 

AI는 “지금은 쿼리 개선이 우선”이라고 말하는 동시에, “다음 장애에서는 원인을 10분 안에 확정할 수 있도록 증거를 남기는 설정”까지 한 호흡으로 제안해야 운영 체계가 완성됩니다.


대구/경상 지역 하이브리드 클라우드 솔루션 세미나 발표자료 다운로드하세요~

2023-06-22/카테고리: APM, Cloud, OPENMARU, Red Hat, Seminar, 발표자료, 오픈나루 공지사항/작성자: OM marketing
자세히 보기
https://i0.wp.com/www.openmaru.io/wp-content/uploads/2023/06/%EC%9E%91%EC%9D%80-%EB%B0%B0%EB%84%88-1.png?fit=786%2C609&ssl=1 609 786 OM marketing https://www.openmaru.io/wp-content/uploads/2020/11/logo@2x.png OM marketing2023-06-22 14:05:182023-06-23 13:23:44대구/경상 지역 하이브리드 클라우드 솔루션 세미나 발표자료 다운로드하세요~

2023년 6월 대구 지역 클라우드 네이티브 세미나 자료 다운로드

2023-06-14/카테고리: APM, Cloud, OPENMARU, Seminar, 발표자료, 오픈나루 공지사항, 오픈소스/작성자: OM marketing
자세히 보기
https://i0.wp.com/www.openmaru.io/wp-content/uploads/2023/06/sw-awards_banner-1.png?fit=786%2C609&ssl=1 609 786 OM marketing https://www.openmaru.io/wp-content/uploads/2020/11/logo@2x.png OM marketing2023-06-14 16:22:502023-06-15 12:40:222023년 6월 대구 지역 클라우드 네이티브 세미나 자료 다운로드

2023 Red Hat Summit Boston 첫날 – 혁신과 열정의 시작

2023-05-24/카테고리: News, OPENMARU, Seminar, 오픈나루 공지사항/작성자: OM marketing
자세히 보기
https://i0.wp.com/www.openmaru.io/wp-content/uploads/2023/05/redhat_summit_2023_openmaru_first_day.png?fit=1024%2C333&ssl=1 333 1024 OM marketing https://www.openmaru.io/wp-content/uploads/2020/11/logo@2x.png OM marketing2023-05-24 16:56:072024-01-18 09:28:372023 Red Hat Summit Boston 첫날 – 혁신과 열정의 시작
Page 15 of 25«‹1314151617›»
  • 페이스북에 공유하려면 클릭하세요. (새 창에서 열림) Facebook
  • 클릭하여 X에서 공유 (새 창에서 열림) X
  • 클릭하여 친구에게 이메일로 링크 보내기 (새 창에서 열림) 전자우편
  • 인쇄하기 (새 창에서 열림) 인쇄
  • Reddit으로 공유하기 (새 창에서 열림) 레딧
  • Pinterest에서 공유하려면 클릭하세요 (새 창에서 열림) Pinterest
  • Telegram에 공유하려면 클릭하세요. (새 창에서 열림) Telegram
  • WhatsApp에 공유하려면 클릭하세요. (새 창에서 열림) WhatsApp

이것이 좋아요:

좋아하기 가져오는 중...

Recent Posts

  • AI가 어떻게 WAS OOM (Out Of Memory) 에러의 원인을 찾을까요? 2026-02-05
  • OPENMARU Newsletter 56호 | GPT는 모르는, 한국인만 아는 ‘그 느낌’까지 구현할 수 있을까? 2026-02-05
  • 엔터프라이즈 AI의 핵심, 에이전트 빌더 4종 심층분석 백서 2026-01-30
  • OPENMARU Newsletter 55호 | VM과 클라우드 네이티브, 효율의 차이는 어디서 오는가? 2026-01-22
  • 찾아가는 AI 네이티브 세미나 안내 – “AI 도입, 아직도 막막하신가요?” 2026-01-21

Categories

  • APM
  • blog-price
  • blog-support
  • blog-trouble-shooting
  • blog-whitepaper
  • Cloud
  • Cloud Native Seminar
  • Cluster
  • gift
  • JBoss
  • Kubernetes
    • Container
  • Linux
  • Microservices Architecture
  • News
  • Newsletter
  • OPENMARU
    • Dashboard
  • OpenShift
  • Red Hat
  • Seminar
    • gift
  • Tech Talk
  • 발표자료
  • 분류되지 않음
  • 오픈나루 공지사항
  • 오픈소스

이메일로 블로그 구독하기

이 블로그를 구독하고 이메일로 새글의 알림을 받으려면 이메일 주소를 입력하세요

태그

AI APM cloud Cloud Native CloudNative Container DevOps Docker Hybrid Cloud jboss JBoss EAP Kubernetes Kubernetes 모니터링 linux LLM MSA MSAP.ai Native OPENMARU OPENMARU APM OpenShift Red Hat redhat RHEL tomcat WAS 가상화 네이티브 도커 레드햇 리눅스 모니터링 브리핑 세미나 애플리케이션 오픈마루 오픈마루 APM 오픈시프트 주간 컨테이너 쿠버네티스 클라우드 클라우드 네이티브 클라우드네이티브 클라우드 네이티브 세미나

Search

Search Search

오픈마루

04778 서울시 성동구 뚝섬로1길 31 906 호
(성수동1가, 서울숲M타워)

Tel : 02-469-5426 | Fax : 02-469-7247
Email : sales@openmaru.io

  • OPENMARU CLOUD APM
    • Application 모니터링
    • Openshift & Kubernetes 모니터링
    • WEB/WAS 모니터링
    • URL 모니터링
    • Cubrid 모니터링
  • Cluster
  • Dashboard
  • COP
  • CogentAI
  • iAP
  • Observability

  • 가격안내
  • 고객 레퍼런스
  • 고객지원
    • 문서
    • 사용자가이드
    • 기술지원
  • 블로그
    • 오픈마루
    • 구매 관련
    • 기술 지원
    • 트러블 슈팅
  • 이용약관
  • 개인정보처리방침
  • 서비스수준협약
  • 회사소개
Copyright © OPENMARU, Inc. All Rights Reserved. - powered by Enfold WordPress Theme
  • Link to Facebook
  • Link to LinkedIn
  • Link to X
  • Link to Youtube
Link to: OPENMARU Newsletter 56호 | GPT는 모르는, 한국인만 아는 ‘그 느낌’까지 구현할 수 있을까? Link to: OPENMARU Newsletter 56호 | GPT는 모르는, 한국인만 아는 ‘그 느낌’까지 구현할 수 있을까? OPENMARU Newsletter 56호 | GPT는 모르는, 한국인만 아는 ‘그...오픈마루 뉴스레터 | 뉴스레터로 알아보는 클라우드 네이티브 주간 브리핑
Scroll to top Scroll to top Scroll to top
  • 한글
  • English
%d