백엔드

    쿠버네티스 설치부터 서비스 배포까지 - 1.도커 설치

    쿠버네티스 설치부터 서비스 배포까지 - 1.도커 설치

    목차 쿠버네티스 설치부터 서비스 배포까지 - 1.도커 설치 쿠버네티스 설치부터 서비스 배포까지 - 2.쿠버네티스 설치 쿠버네티스 설치부터 서비스 배포까지 - 2-1. 쿠버네티스 재설치 쿠버네티스 설치부터 서비스 배포까지 - 3.쿠버네티스 Ingress Nginx 생성 쿠버네티스 설치부터 서비스 배포까지 - 4.NFS 설치 쿠버네티스 설치부터 서비스 배포까지 - 5.데이터베이스 설정 쿠버네티스 설치부터 서비스 배포까지 - 6.프론트엔드 설정 쿠버네티스 설치부터 서비스 배포까지 - 7.백엔드 설정 쿠버네티스 설치부터 서비스 배포까지 - 8.결과화면 1.도커 설치 인트로 들어가기에 앞서 저는 도커, 쿠버네티스를 이렇게 시작했습니다. 도커에 대해 ‘도’자도 모르던 어느 날 갑작스레 도커를 이용한 컨테이너화를 통..

    에러, React Proxy error: Could not proxy request /favicon.ico from localhost:3000 to http://localhost:8000/.

    에러, React Proxy error: Could not proxy request /favicon.ico from localhost:3000 to http://localhost:8000/.

    문제 리액트를 실행시킨 후 다음과 같은 에러가 계속 발생하였습니다. Proxy error: Could not proxy request /favicon.ico from localhost:3000 to http://localhost:8000/. 문제해결 백엔드와의 연결을 위해 proxy를 다음과 같이 설정해 놓았는데요 # package.json { ... "proxy": "http://localhost:8000" } 저의 경우 백엔드가 종료 되어 있는 상태에서는 해당 글의 에러가 발생했고, 백엔드가 실행되고 있는 상태에서는 에러가 발생하지 않았습니다. 위 설정 때문에 문제가 발생한 것으로 예상됩니다. 8000 포트로 요청을 하게 되어 있는데 백엔드가 없으니까요.

    Backend 에서 Tensorflow, Keras 로 머신러닝, 딥러닝 작업 시 GPU 메모리 반환하지 않는 문제 해결 방법

    Backend 에서 Tensorflow, Keras 로 머신러닝, 딥러닝 작업 시 GPU 메모리 반환하지 않는 문제 해결 방법

    Backend 에서 Tensorflow, Keras 로 머신러닝, 딥러닝 작업 시 GPU 메모리 반환하지 않는 문제 해결 방법 + 저는 Pytorch 도 테스트 해보니 GPU 메모리 반환이 잘 이뤄졌습니다. How to clear GPU memory when using tensorflow or pytorch? 인트로 해당 문제는 프로젝트의 특이성으로 인해 “지정된 GPU를 사용해야 하는” 그리고 “백엔드에서 추론(inference)을 위해 GPU를 사용하는 것”과 “다른 특정한 프로그램에서도 같은 GPU를 사용”함으로써 “GPU를 공유해서 사용”해야 하는 경우 하나의 프로세스가 GPU 메모리를 반환하지 않고 잡고 있어 문제가 된 상황입니다. GPU를 사용하면 nvidia-smi 상에서 GPU 메모리가 꽉..