K투자망은 스타트업/벤처기업/자영업체 ↔ 투자자 간의 자율진행장터
전략적투자자(SI) 및 재무적투자자(FI)가 투자자로서 함께 참여합니다.

팝업닫기

삼성·LG전자, 냉난방공조 기업 M&A에

페이지 정보

작성자 coajfieo 댓글 0건 조회 2회 작성일 25-07-05 19:31

본문

삼성·LG전자, 냉난방공조 기업 M&A에 역대급 투자AI 산업 '골칫거리' 열 관리 놓고 국가대표 '빅 매치'설계부터 유지보수까지, 사업화 기회 '줄줄이 사탕'시장 성장 전망 장밋빛…삼성·LG 솔루션 개발 초집중[서울=뉴시스]기사의 이해를 돕기 위해 AI 도구로 생성한 이미지. *재판매 및 DB 금지[서울=뉴시스]이인준 기자 = 삼성전자와 LG전자가 냉난방 공조 시장을 선점하기 위한 역대급 규모 투자에 나서며 글로벌 시장에 파문을 일으키고 있다. AI 데이터센터는 생성형 AI부터 자율주행, 로봇 등 피지컬 AI까지 미래 기술 확보를 위한 핵심 인프라지만 열 관리 문제는 기업을 넘어 국가의 문제까지 커진 '골칫거리'다. 오죽하면 '열을 지배하는 자가 AI 산업을 제패한다'는 말까지 나올 정도다. 그동안 전 세계의 가정용·시스템 에어컨 시장에서 '바람을 일으켜온' 국가대표 두 회사가 이제 AI 시대 먹거리로 주목받는 AI 데이터센터 공조 시장에서 또다시 격돌한다는 점에 업계의 관심이 높아지고 있다.전기 있는 곳에 열 있다…AI, 열 관리에 진심인 이유5일 업계에 따르면 AI 개발과 운영을 위해선 고성능 GPU(그래픽처리장치)가 필요하며, GPU는 현 하나당 1000W(와트)의 전력을 소모한다. 전자레인지나 헤어드라이어를 24시간 켜두는 것과 비슷할 수 있다.고성능 AI 서버 랙(장치)에는 GPU가 다발로 꽂히는데, AI 데이터센터에는 이런 장치가 수도 없이 들어간다. 어머어마한 양의 전력을 사용하는 것이다. 국제에너지기구(IEA)에 따르면 전세계 데이터센터의 연간 전력 소모량은 2022년 460TWh(테라와트시)인데, 이미 지난 2023년 프랑스에서 1년 동안 사용하는 전기량(445TWh)과 맞먹는 수준이다. 2026년에는 2배 이상인 최대 1050TWh까지 증가할 수 있다고 한다. 고성능 AI 데이터센터는 더 많은 양의 전기를 쓰기 때문에 AI는 '전기 먹는 하마'라는 비난이 나올 정도다. 전력 사용은 당연히 열을 유발한다. 전류가 흐를 때 전기 에너지 일부가 열에너지로 변환되기 때문이다. AI 데이터센터는 사실 열 공해 시설이다. 반대로 AI 서버는 열과 상극이다. 고열로 GPU 등 시스템 성능이 떨어질 수 있다. 또 장비가 녹거나, 심한 경우 화재도 난다. 적정 온도와 습도가 필요하다.장비를 오래 쓰는 것도 중요하지만, AI 시장을 놓고 치열한 경쟁을 벌이는 이때에 설비 가동 중단만큼 두려운 것이 없다. 열 관리에 사업의 성패도 달렸다. 특히 고비용 산업인 AI와 연관도가 높은 대규모 장치 산업으로, 높은 수익성도 기대할 수 있다. 금광 시대에는 '삼성·LG전자, 냉난방공조 기업 M&A에 역대급 투자AI 산업 '골칫거리' 열 관리 놓고 국가대표 '빅 매치'설계부터 유지보수까지, 사업화 기회 '줄줄이 사탕'시장 성장 전망 장밋빛…삼성·LG 솔루션 개발 초집중[서울=뉴시스]기사의 이해를 돕기 위해 AI 도구로 생성한 이미지. *재판매 및 DB 금지[서울=뉴시스]이인준 기자 = 삼성전자와 LG전자가 냉난방 공조 시장을 선점하기 위한 역대급 규모 투자에 나서며 글로벌 시장에 파문을 일으키고 있다. AI 데이터센터는 생성형 AI부터 자율주행, 로봇 등 피지컬 AI까지 미래 기술 확보를 위한 핵심 인프라지만 열 관리 문제는 기업을 넘어 국가의 문제까지 커진 '골칫거리'다. 오죽하면 '열을 지배하는 자가 AI 산업을 제패한다'는 말까지 나올 정도다. 그동안 전 세계의 가정용·시스템 에어컨 시장에서 '바람을 일으켜온' 국가대표 두 회사가 이제 AI 시대 먹거리로 주목받는 AI 데이터센터 공조 시장에서 또다시 격돌한다는 점에 업계의 관심이 높아지고 있다.전기 있는 곳에 열 있다…AI, 열 관리에 진심인 이유5일 업계에 따르면 AI 개발과 운영을 위해선 고성능 GPU(그래픽처리장치)가 필요하며, GPU는 현 하나당 1000W(와트)의 전력을 소모한다. 전자레인지나 헤어드라이어를 24시간 켜두는 것과 비슷할 수 있다.고성능 AI 서버 랙(장치)에는 GPU가 다발로 꽂히는데, AI 데이터센터에는 이런 장치가 수도 없이 들어간다. 어머어마한 양의 전력을 사용하는 것이다. 국제에너지기구(IEA)에 따르면 전세계 데이터센터의 연간 전력 소모량은 2022년 460TWh(테라와트시)인데, 이미 지난 2023년 프랑스에서 1년 동안 사용하는 전기량(445TWh)과 맞먹는 수준이다. 2026년에는 2배 이상인 최대 1050TWh까지 증가할 수 있다고 한다. 고성능 AI 데이터센터는 더 많은 양의 전기를 쓰기 때문에 AI는 '전기 먹는 하마'라는 비난이 나올 정도다. 전력 사용은 당연히 열을 유발한다. 전류가 흐를 때 전기 에너지 일부가 열에너지로 변환되기 때문이다. AI 데이터센터는 사실 열 공해 시설이다. 반대로 AI 서버는 열과 상극이다. 고열로 GPU 등 시스템 성능이 떨어질 수 있다. 또 장비가 녹거나, 심한 경우 화재도 난다. 적정 온도와 습도가 필요하다.장비를 오래 쓰는 것도 중요하지만, AI 시장을 놓고 치열한 경쟁을 벌이는 이때에 설비 가동 중단만큼 두려운 것이 없다. 열 관리에 사업의 성패도 달렸다. 특히 고비용

댓글목록

등록된 댓글이 없습니다.