All
80 posts
🔬
2025/12/15 (월)

금일 task structure를 인식하는 behavior를 출력하는 알고리즘 사용 방법을 처음부터 끝까지 설명하고 다른 rat의 데이터를 사용하여 검증해보는 시간을 가졌다. 알고리즘은 총 6단계를 거쳐 데이터를 얻을 수 있다. (추후에 언급할 한계들을 극복하기 위해 단계들이 많다.) 1.easyOCR timestamp 출력 먼저 CAM 6에 존재하는 timestamp를 easyOCR을 사용하여 csv file 형태로 출력을 진행했다. rat 1008의 영상은 timestamp가 CAM 6에 따로 존재했기 때문에 CAM 6의 영상의 timestamp를 기준으로 맞춰주어야 한다. 2.timestamp를 cheetah event log와 비교 후 cut 구간 설정 cheetah event log의 timestamp가 처음으로 시작되는 숫자와 가장 비슷한 timestamp를 easyOCR csv file에서 찾아 몇 번째 frame에서 시작되는지 확인해 주었다. rat1008의 데이…

🔬
2025/12/4 (목)

금일 중앙 label의 pixel 이동 거리를 gitter 이하로 움직였다면 stop(0) 을 출력하도록 code를 짜고 test를 진행했다. 하지만 수치화된 data가 없어 다른 figure로 표현하기 어려움이 존재했다. 그리하여 중앙 label의 pixel이동 거리를 수치화 하는 code 수정을 진행했다. 그 전에 dist 값을 smooth를 진행 후 stop과 run을 판단하는 data로 사용했다. 그렇다면 smooth를 사용하지 않고 0과 1을 판단한다면, 또한 dist와 dist를 smooth한 값을 비교한다면, 얼마나 차이나며 추후에 실험자가 dist 값을 비교했을 때 stop과 run을 비교하기 위한 값으로 어떠한 data를 사용할지 비교해 볼 필요성이 있다고 판단했다. 첫 번째 그래프에는 dist와 dist smooth 된 data를 각 frame 단위로 표현한 것이며 두 번째 그래프는 dist를 기준으로 stop과 run 구간을 점으로 찍었으며 세 번째 그래프는 …

🔬
2025/12/8 (월)

금일 smooth 된 dist를 기준으로 stop과 run을 구별한 data와 unreal log의 현재 trial과 누적 trial을 연결하여 각각 stop과 run 구간에서 몇 번째 trial이 진행 중 인지를 나타내는 시도를 진행했다. 먼저 저번에 작성했던 것처럼 unreal log data와 DLC label data의 data 차이는 15개로 DLC label data가 unreal log data에 비해 15개가 적은 것을 확인했다. 이러한 결과가 나타나는 이유는 unreal log를 recording 하는 시점과 실험 영상을 recording 시점이 다르기 때문이다. 또한 timestamp를 기준으로 비슷한 구간을 실험자가 잘라 DLC에 넣어 사용했음에도 불구하고 15frame = 0.49s 정도의 차이가 나타났다. 15frame 정도의 차이를 맞춰주는 작업이 필요로 하다고 판단하여 unreal log와 dlc label data 간 data 차이를 커버해주는 알고리즘…

🔬
2025/12/1 (월)

금일 추출 된 DLC label data를 사용하여 task structure를 인지하고 있는 behavior를 추출하는 알고리즘 개발을 진행했다. 알고리즘 개발 진행에 앞서 label data 활용 구간에서 찾게 된 결론을 먼저 설명하고 넘어가도록 하겠다. 1.정면 영상 사용 측면에서 촬영한 영상과 timestamp가 출력 된 센서 화면 영상의 길이가 약 12초가 차이나는 것을 확인했다. ffmpeg을 사용하여 frame rate를 30fps로 인코딩 되게 설정하여 영상을 출력하였지만, 12초가 차이났다. 그리하여 측면 영상을 사용하는 것 보다는 정면에서 촬영한 영상을 DLC label data 영상으로 사용하는 것으로 방향성을 수정했다. 위 사진처럼 왼발과 오른발 각각 1개씩 labeling을 진행하였고, DLC를 학습시켜 영상의 label 위치 data를 구할 수 있었다. 추가로 출력에 사용된 영상은 cheetah event log의 timestamp와 easyOCR log…

🔬
2025/11/24 (월)

금일은 DLC를 활용하여 출력된 label data를 가지고 unreal log와 cheetah event log와 동기화 시켜주는 작업을 진행했다. 현재 test data로 사용중인 LE1008의 영상에는 문제점이 3가지가 존재했다. 측면에서 촬영한 영상에 digitalynx timestamp가 존재하지 않고, 다른 CAM 화면에 timestamp가 존재한다. timestamp가 존재하는 CAM 녹화 영상과 측면에서 촬영한 녹화 영상의 길이가 다르다. DLC label data의 개수와, cheetah event log(unreal log)의 개수가 다르다. 1.측면에서 촬영한 영상에 digitalynx timestamp가 존재하지 않고, 다른 CAM 화면에 timestamp가 존재한다. timestamp 추출 알고리즘을 개발할 때는 timestamp와 쥐를 측면에서 녹화한 영상이 같은 영상으로 존재했지만, 이번 test에 사용할 영상은 timestamp가 다른 CAM으로 분리…

🔬
2025/11/20 (목)

금일 DLC를 사용하여 영상에서 label 좌표를 csv file로 얻어 label data 활용 계획을 설계하는 작업을 진행했다. 먼저 저번 labeling과 다르게 label의 개수를 줄여 양쪽 다리 끝 부분에 1개씩 labeling을 진행했다. label을 1개로 줄인 이유는 쥐의 속도만 구할 것이기 때문에, 쥐의 다리 구조를 정확하게 label할 필요가 없다고 판단했기 때문이다. 추가로 label의 개수가 많으면 DLC 학습 시간도 길어지기 때문에 최소한의 label만 사용하여 학습을 진행하는 것이 시간적으로도 이득이 되기 때문이다. 추가로 영상과 unreal log의 데이터를 동일한 위치에 두어 사용하기 위해서는 영상의 timestamp와 unreal log의 timestamp를 맞추어 주어야 한다. 맞추어 주지 않는다면, unreal log 기준으로 각 trial ITI 화면으로 넘어가기 전과 후 구간의 DLC label 좌표를 비교하지 못하기 때문에 필요한 작업이다.…

🔬
2025/11/17 (월)

금일 영상판독을 시작으로 task structure behavior distinction algorethem develop project를 시작했다. 먼저 수민 선배님께서 보내주신 자료에서 task structure behavior가 나타나는 쥐는 rat 1008 이었기 때문에 1008을 중점적으로 영상판독을 진행 후 task structure behavior가 나타나는 구간을 찾으려고 시도했다. trial 종료 -> (쥐가 계속 달리고 있어도) -> ITI화면으로 넘어감 -> 2틱 stop(쥐가 달리고 있어도 속도는 측정 x) -> start 지점으로 텔레포트 -> trial 시작 위 사항은 수민 선배님 실험의 세팅이며, ITI 화면으로 넘어가면 약 500ms 동안 unreal log에서 속도를 측정하지 않아 쥐의 task structure behavior를 측정하지 못 하는 이유이다. ITI로 넘어가면 scene이 멈추기 때문에 이러한 부분을 DLC를 사용하여 labeling을…

🔬
2025/11/13 (목)

금일 진행한 progress meeting을 통해 정해진 사항들과 지금까지 진행했던 내용들을 정리해보는 시간을 가졌다. Progress meeting 먼저 unreal log를 통해 영상 정보를 사용자에게 보여줄 수 있는 실시간 figure를 만들고자 영상에 출력되는 timestamp를 easyOCR을 활용하여 개발을 진행했다. 결과물을 보게 되면, 영상에 함께 출력 되는 timestamp의 추출에 성공하였고, 추출된 timestamp는 CSV file 형태로 저장되어 사용자에게 제공된다. 이번 미팅에서 논의된 가장 중요한 내용은 위 timestamp 추출 알고리즘을 활용하여, 추후 프로젝트의 방향성을 결정하는 것이 가장 중요한 논재였다. 교수님에게 총 2가지의 방향성을 제시해 드렸고, 컨펌을 받았다. 1.GUI 구성 첫 미팅에서 결정된 사항으로 timestamp를 통해 unreal log와 동일한 frame을 추출하는 알고리즘의 설계에 성공했기 때문에 GUI에 여러가지 사항들을…

🔬
2025/11/6 (목)

4시간 걸리던 easyOCR 처리를 45분까지 줄였다. GPU를 사용하여 easyOCR의 딥러닝을 진행하고 있는 줄 알았지만, CPU를 사용하여 easyOCR의 딥러닝을 하고 있어 오래 걸린다는 것을 확인했다. 그리하여 easyOCR을 GPU를 사용하여 딥러닝을 진행하고 추가적으로 현재 3090 2개를 사용하고 있기 때문에 multiGPU 설정까지 진행했다. 먼저 GPU를 설정하기 위해서 cuda와 pytorch 그리고 opencv의 설치를 다시 진행했다. 위 2가지를 입력하여 원래 설치된 pytorch를 제거해 준다. 그 후 위 3가지를 입력하여 GPU version의 torch와 openCV 그리고 easyOCR을 다시 설치를 진행한다. 설치가 완료되었다면, GPU가 잡히는지 확인 후 원래 사용하던 code를 실행시켜 속도를 비교해 본다. multiGPU를 사용하기 위해서는 1개의 frame에 2개의 GPU를 사용하여 연산을 진행하는 것은 불가능 했다. 예를 들어 첫 …

🔬
2025/11/3 (월)

easyOCR을 활용한 영상의 timestamp 출력 알고리즘의 신뢰도 분석이 충분히 사용 가능할 정도라고 판단하였고, 그리하여 easyOCR 알고리즘을 더 활용하여 GUI로 출력되는 timestamp player를 만드는 과정을 진행했다. 먼저 timestamp player의 목표는 사용자가 event log를 보고 영상판독을 원하는 구간의 timestamp를 timestamp player에 입력하게 되면, 사용자가 입력한 timestamp 부터 영상이 play되도록 하는 것이 목표이다. 그리하여 먼저 easyOCR을 활용하여 timestamp player의 개발을 진행했다. 영상을 code에 넣게 되면 사용자가 원하는 timestamp를 입력하게 만들고. 그 후 easyOCR을 사용하여 영상의 timestamp를 출력하게 만든다. 다음으로 easyOCR로 출력한 timestamp와 입력한 timestamp를 비교하여 가장 오차가 없는 영상의 timestamp의 구간부터 pla…

🔬
2025/10/30 (목)

easyOCR을 사용한 영상 timestamp 알고리즘의 신뢰도 검증 단계를 진행했다. 현재 가지고 있는 cheetah event log를 기준으로 영상에서 추출한 timestamp의 차이를 비교해 보았으며 추가적으로 영상에서 추출한 timestamp의 현재 timestamp와 이 후 timestamp의 추출값의 차이를 분석하여 어느정도 차이를 가지며 timestamp가 일정하게 출력되는지 분석했다. 먼저 지정한 timestamp와 이 후 timestamp의 차이들을 비교했다. 지정한 timestamp - 이 후 timestamp = +- 로 나타나게 되는데 - 가 나타날 시 지정한 timestamp가 이 후 timestamp에 비해 증가 했다는 것을 나타내며, + 를 나타낼 시 지정한 timestamp의 값이 이 후 timestamp의 값보다 감소했다는 것을 나타내며, 이는 영상에서 timestamp의 인식이 제대로 되지 않은 data 임을 의미한다. 33분의 영상에서 총 596…

🔬
2025/10/23(목)

tesserat를 사용하여 영상에서 timestamp를 출력 후 csv file로 저장하는 python code 개발을 계속 진행했다. 그러나 정확도 면에서 한계가 명확하게 들어났다. 한계를 극복하기 위해서는 영상에 알맞은 threshold를 여러번의 test를 진행하여 찾아야 하며, 수많은 threshold를 test 하기 위해서는 timestamp가 출력되는 시간이 길기 때문에 비효율적인 시간이 소요될 것이라고 판단했다. 또한 tesseract에 직접 학습시킬 학습데이터를 뽑아 사용자가 입력 후 학습하여 사용하게 되면 정확도가 올라가지만, 이 또한 많은 시간이 소요될 것이라고 판단했다. 그리하여 tesseract의 속도 및 정확도에 대한 한계를 극복하고 영상에서 timestamp를 출력하기 위해 다른 tool 사용을 찾게 되었다. naver ai lab에서 clova ai 문자 인식에 사용한 easyOCR을 사용하여 영상에서 timestamp를 출력하는 것으로 방향성을 잡았다.…

🔬
2025/10/27(월)

easyOCR을 사용한 timestamp 알고리즘은 code 출력물에서는 16번째 자리의 숫자까지 출력이 되지만 저장된 CSV file에서 timestamp를 확인하면 16번째 자리의 숫자는 모든 셀에서 0으로 출력되는 문제가 있었다. 이를 해결하고자 code에서 추출된 timestamp를 문자열로 저장하여 CSV file에 저장하는 것으로 수정해 보았지만 소용없었다. 결과적으로 code에서는 16번째 자리의 숫자까지 추출 후 출력되기 때문에 code에는 이상이 없다. 그리하여 excel 내에서 문제를 해결해 보고자 하였다. 먼저 excel에서 데이터에 들어가 텍스트/CSV를 눌러준다. excel은 아무 파일이나 실행시켜도 상관 없다. 그 후 위 그림처럼 이러한 창이 나타나게 된다. 여기서 데이터 변환을 눌러준다. 추가적으로 파일의 원본이 65001: 유니코드(UTF-8)로 되어있는지 확인 후 데이터 변환을 눌러준다. 데이터 변환을 누르게 되면 이러한 팝업창이 나타난다. 여기…

🔬
2025/10/20 (월)

분석 컴퓨터 window 11 update를 진행했다. 약 6시간 정도 소요되었고 c 드라이브에 있는 데이터가 백업 되어 바로 사용 될 수 있도록 update 되었다. 영상에 존재하는 digitalynx timestamp를 추출 후 출력하고 출력된 timestamp를 csv file에 저장하는 tool 개발을 진행했다. 가장 큰 문제는 cheetah log와 unreal log가 30Hz로 출력되기 때문에 개발할 timestamp 출력 tool도 0.033초에 한번 씩 timestamp를 추출하여 출력해야 했다. 추가로 데이터로 존재하지 않고 영상 내에 존재하기 때문에 영상에서 timestamp가 찍힌 공간의 좌표를 추출하고 tool이 인식하여 timestamp를 추출해 주어야 했다. 먼저 open cv 와 tesseract라는 function을 사용하여 코딩을 진행했다. open cv는 dlc에서도 사용되는 function으로 영상의 프레임을 추출해 주거나, 영상에서 사용자가…

🔬
2025/10/13 (월)

연휴가 시작되기 전 영상의 frame rate와 neural data의 timestamp를 맞추어 실험영상의 fps에 맞는 neural data를 보여줄 수 있는 GUI를 구성하는 프로젝트를 시작했다. 프로젝트 시작에 앞서 흥렬 선배님에게 lab의 VR neural data setup이 어떻게 되어 있는지 설명을 들었다. 정리해 보자면 아두이노를 통해 unreal 센서 데이터와 cheetah에 각각 30Hz로 데이터를 전송한다. 이때 아두이노는 digitalynx에 연결되어 unreal log 와 cheet event log의 timestamp를 맞추어 준다. 실험이 종료되고 neurla data recording까지 종료되었으면, unreal log의 data 개수와 cheetah event log의 data 개수를 비교한다. 만약 비교했을 때 data의 개수가 다르다면 neural data recording이 잘 못 되었다는 것을 보여주며, 개수가 맞다면 recording이 …

🔬
2025/9/29(월)

head direction figure와 mp4영상의 frame rate를 맞추는 작업을 진행했다. mp4영상의 시간대를 정해주면 csv file에서 동일한 frame의 label 좌표를 가져와 실시간으로 figure를 그리도록 설계했다. 가장 신경을 써줬던 부분은 영상의 frame 과 csv file의 frame 개수가 맞는지 의문이었다. 서현님께서 영상 frame 추출 코드를 만드셨을 때 영상의 frame 과 csv file의 frame 개수가 동일하다고 발표한 정보를 토대로 30fps의 영상과 csv file을 code로 받아 실시간 figure를 그리는 head direction GUI code를 개발했다. VIDEO_PATH 와 CSV_PATH를 선언하여 mp4영상의 경로와 csv file의 경로를 설정해주었다. 여기서 csv file은 사용자가 VIDEO_PATH에 입력한 영상의 csv file을 넣어주어야 한다. 추가로 figure에 사용된 label의 좌표는 저번과…

🔬
2025/9/25(목)

head direction을 visualization하는 GUI test를 진행했다. 먼저 정면에서 촬영한 실험 영상에서 실험을 준비하는 부분을 편집해 5분 영상으로 rendering을 진행해 주었다. 실험 앞뒤 부분을 자른 이유는 CSV file이 label이 찍히는 frame부터 1 frame으로 count한다. 쥐가 실험을 준비하고 있는 초반 부분은 label이 찍히지 않아 영상의 frame rate를 맞춰 test를 진행하는데 어려움이 존재했다. 그리하여 영상의 초반과 뒷 부분을 편집하여 test용 영상을 만들었다. 번외로 test용 영상을 만들다 쥐의 새로운 행동을 발견하여 적어본다. 실험자가 사용한 test 영상은 LE 952를 사용했다. 원래부터 952를 보면 tesk 중간에 눈이 커졌다 작아졌다 하는 행동이 보였다. test 영상을 만들기 전까지는 그냥 넘겼지만, 눈이 튀어나오는 행동이 극명하게 보이는 부분을 찾았다. 비유하자면 개구리가 울음소리를 낼 때 배가 팽창…

🔬
2025/9/22(월)

DLC project meeting 금일 DLC project meeting을 진행했다. 먼저 수민선배님의 CA1 target으로 진행한 실험 영상을 DLC test에 사용한 이유에 대해 설명드렸다. 수민 선배님의 실험 촬영 영상은 다른 분들의 실험 영상과는 다르게 5마리의 실험 영상을 보유하였고, 각 rat 별 7일 이상의 데이터를 보유하고 있었다. 추가적으로 쥐의 신체부위가 식별 가능한 정도의 화질을 보유하고 있어 DLC test에서 수민 선배님의 실험 영상을 사용하게 되었다고 설명을 드리며 project meeting을 시작했다. 수민 선배님의 실험 촬영 영상은 총 3가지의 카메라로 쥐를 촬영했다. 1번은 위에서 촬영한 영상이며, 2번은 정면, 3번은 측면에서 촬영한 영상이다. 3가지의 카메라 중 위에서 촬영한 1번 영상의 화질이 가장 좋았지만 hyperdrive에 쥐의 신체부위가 가리는 문제가 존재하여 신체부위 labeling에 어려움이 존재한다는 단점이 존재했다. 2…

🔬
2025/9/18(목)

월요일부터 학습시킨 정면에서의 세부적인 bodypart의 학습이 완료되어 labeling 된 video 출력을 진행했다. 결과를 본다면, 우려했던 것 보다 label이 쥐의 신체 부위를 잘 따라가 주는 결과를 보여주었다. 쥐가 달리기 시작했을 때도 label이 잘 따라가주는 모습을 보였다. 하지만 부족한 부분은 존재했다. labeling된 영상을 출력하기 위해 input한 영상에서 약 12초정도 쥐가 그루밍을 하는 부분이 존재했다. 이 부분의 labeling의 결과를 본다면 label이 쥐의 신체부위를 잘 따라가 주지 못하는 결과를 보여주었다. 손으로 그루밍을 심하게 하지 않을 때는 그나마 label이 잘 따라가지만 손으로 그루밍을 크게 진행할 시 label이 많이 없어지는 결과를 보였다. 12초 가량 짧게 그루밍을 진행한 것이지만, 그루밍은 쥐의 behavior를 판단 시 중요한 지표라고 생각되기 때문에 쥐가 그루밍을 할 때도 labeling이 잘 따라가주는 결과를 보여주어야…

🔬
2025/9/15(월)

DLC 2.11.3 version으로 백업과 tensorflow engine으로 gpu를 setting하는 과정을 완료하였다. 그 후 test를 위해 2.11.3 version에서 학습 test를 진행했다. test를 진행한 결과 학습을 진행하게 되면 iteration이 증가는 하지만 maximum iteration에 도달하게 되면 RuntimeError가 발생했다. 처음에는 batch size의 문제인가 싶어 batch size를 최소 범위인 1로 잡아 학습을 다시 진행했지만, 결과는 똑같았다. error을 해결하기 위해 conda 가상 환경으로 돌아가 tensorflow 설정을 다시 진행했다. tensorflow 설정을 다시 진행하던 중, multi GPU 설정에서 사용중이던 pytorch 리소스 팩이 GPU 0과 GPU 1이 충돌중인 것을 확인 하였고, pytorch 설정 즉 multi GPU 설정을 완벽하게 지우는 과정을 진행했다. pytorch engine 설정을 지운 …

🔬
2025/9/8(월)

multi GPU 설정을 리셋시키고 원래 사용하던 pipeline의 version을 사용하여 정면에서 촬영한 실험 영상의 테스트를 진행하기로 결정했다. 정면에서 촬영한 실험 영상에서 어떤 부위를 labeling 할지 판단하는 것이 더 중요하다고 생각하였고, multi GPU 설정을 계속 사용하여 학습을 진행한다면, label이 튀는 문제가 GPU 설정 문제인지 아니면, 실제 신체 부위의 targeting이 어려운 부위인지 실험자가 판단하기 어렵다고 생각하였다. 그리하여 높은 정확도를 보여주었던 원래 pipeline version인 dlc 2.11.3 으로 다시 setting을 진행하였고, engine 또한 pytorch에서 tensorflow로 다시 바꾸어 설정을 진행했다. dlc 2.11.3 version을 설치하면서 문제는 다른 가상환경에 설치된 dlc 3.0과 계속 충돌하는 이슈가 있었다. 그리하여 conda 가상환경을 필요로 하는 환경만 두고 삭제해주기로 하였다. 위 명령어…

🔬
2025/9/4(목)

DLC multi GPU Deeplabcut에서 gpu 2개를 학습에 모두 사용하기 위해서는 multi gpu 백엔드 개발이 필수적이다. 현재 사용중인 gpu의 환경은 3090이 2개인 환경과 tensorflow를 사용하여 deeplabcut을 사용중인데, 이 tensorflow에서 multi GPU를 사용하기 위해서 많은 test를 진행했다. 결론을 말하자면, tensorflow에서 mulit GPU를 사용하여 학습하는 것은 실패했다. tensorflow에 대한 정보가 부족할 뿐만 아니라, tensorflow 자체가 single GPU 전이 학습에 특화되어 있는 인공신경망(engine)이다. 그리하여 tensorflow에서 multi GPU를 setting하기 위해서는 처음부터 끝까지 모두 손 봐야하는 대공사가 이루어져야 한다. 그렇다면 multi GPU를 사용할 수 있는 방법이 없는 것 인가? multi GPU를 사용하기 위해서는 Engine을 교체하여 deeplabcut을 …

🔬
2025/8/19(화)

1.Rat Training #Rat No. 50 Group : comparison study of no reward vs negative feedback on learning Current weight : 389g(-4g) Pellet/Water : 20g time : 10:00 ~ 10:45 stage : main task - DAY 20 suger water : 3.6ml fruit ring : 1 금일 50번은 모든 criterion을 넘겼다. 이틀 연속 criterion을 넘기는 결과를 보여주어 실험이 종료되었다. 전반적인 50번의main task를 리뷰해 보자면, 50번도 49번과 마찬가지로 학습이 진행 될 수록 알파 구간의 비중이 낮아지고 감마 구간의 비중이 높아지는 결과를 보여주었다. 추가로 performance가 급격하게 증가한 DAY 12의 결과를 본다면, 알파 구간의 비중이 크게 감소한 결과를 보여주었다. 이를 통해 performance가 좋아지면…

🔬
2025/8/18(월)

1.Rat Training #Rat No. 50 Group : comparison study of no reward vs negative feedback on learning Current weight : 393g(+1g) Pellet/Water : 10g time : 09:20 ~ 10:05 stage : main task - DAY 19 suger water : 3.3ml fruit ring : 1 금일 50번은 criterion을 모두 넘기는 결과를 보여주었다. scene 그리고 total correctness가 75% 이상인 결과를 보여주었고, total trial을 40trial을 달성해 모든 criterion에 충족하는 결과를 보여주었다. 어제와 비교했을 때 bias도 크게 감소한 결과를 보였다. 초반 normal trial에서 계속 틀리는 행동을 보여 criterion을 넘기지 못 할 것이라 생각했지만, trial을 거듭할 수록 정답을 맞추는 비율이 늘어…

🔬
2025/8/17(일)

1.Rat Training #Rat No. 50 Group : comparison study of no reward vs negative feedback on learning Current weight : 325g(-3g) Pellet/Water : 10g time : 11:05 ~ 11:50 stage : main task - DAY 15 suger water : 2.1ml fruit ring : 1 금일 50번은 어제와 마찬가지로 심한 bias를 보였다. 12trial 부터 22trial 까지 왼쪽을 연속적으로 선택하여 repetiton을 4번을 사용하여 bias를 잡았다. 그 후 부터는 오른쪽을 한 번씩 선택하는 결과를 보였다. 후반으로 갈 수록 performance가 좋아지는 모습을 보이나 했지만, 아직까지는 각 scene 별로 정답을 맞추지 못하는 모습을 보였다. 추가로 repetition을 사용 후 normal trial로 돌아가 진행하면 gamma 구간에서 VTE를…

🔬
2025/8/16(토)

1.Rat Training #Rat No. 50 Group : comparison study of no reward vs negative feedback on learning Current weight : 395g(-2g) Pellet/Water : 10g time : 11:15 ~ 12:00 stage : main task - DAY 17 suger water : 1.7ml fruit ring : 1 50번은 어제 모든 criterion을 충족하는 결과를 보여주었지만 오늘은 criterion에 하나도 충족하지 못하는 결과를 보여주었다. 추가로 bias도 다시 심해진 행동을 보였다. 처음 trial에서는 오른쪽을 선택했지만 2번째 trial 부터 계속 왼쪽을 선택하는 행동을 보였다. 연속 10번 같은 방향을 선택하는 행동을 보여 13번째 trial에서 repetition을 9번을 사용하여 다른 방향을 선택하게 만들었다. 하지만 normal trial로 돌아와 다시 진행하니 왼…

🔬
2025/8/15(금)

1.Rat Training #Rat No. 49 pellet/water : 30g 49번은 이틀 연속 criterion을 넘겨 실험을 종료하기로 결정했다. 그리하여 어제 저녁에는 동일한 10g의 pellet을 주었고, 오늘 50번이 실험을 시작할 때 pellet 20g을 주었다. 어제 20g을 주려고 하였으나, 50번이 옆에 있기에 실험에 지장을 줄 수 있을 것 같다고 판단하여 50번이 실험을 시작했을 때 pellet을 주기로 하였다. 금일 저녁에는 pellet을 10g을 추가로 주었다. 내일부터는 50번이 실험을 시작할 때 10g을 주고 저녁에 10g을 추가로 주어 총 20g을 주려고 한다. #Rat No. 50 Group : comparison study of no reward vs negative feedback on learning Current weight : 397g(-2g) Pellet/Water : 10g time : 10:40 ~ 11:35 stage : main…

🔬
2025/8/14(목)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 426g(-1g) Pellet/Water : 11g time : 09:15 ~ 10:00 stage : main task - DAY 16 suger water : 3.8ml fruit ring : 1개 금일 49번은 total, 각 scene별 correctness를 충족했으며, total trial 또한 40trial로 criterion을 충족했다. 추가로 이틀 연속 criterion을 충족하여 49번은 main task가 종료되었다. 총 실험 결과를 살펴보자면, 49번은 DAY 12일에 performance가 급격하게 좋아지는 결과를 보였으며 그 후로는 correctness가 우상향 하는 결과를 보였다. 마찬가지로 bias 또한 12일에 급격하게 낮아지는 결과를 보였고,…

🔬
2025/8/13(수)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 427g(-3g) Pellet/Water : 11g time : 09:15 ~ 10:00 stage : main task - DAY 15 suger water : 3.9ml fruit ring : 1개 금일 49번은 criterion에 충족한 결과를 보여주었다. total correctness는 90%를 달성했으며 각 scene 별 correctness도 criterion을 넘긴 결과를 보여주었다. 또한 total trial도 40번으로 criterion에 충족한 결과를 보여 주었다. 명일도 모든 criterion을 넘기는 결과를 보여준다면, 49번은 실험이 종료될 것 같다. 금일 pellet은 어제와 동일한 11g을 주었고 suger water는 3.9ml fruit rin…

🔬
2025/8/12(화)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 430g(-2g) Pellet/Water : 11g time : 09:30 ~ 10:15 stage : main task - DAY 14 suger water : 3.4ml fruit ring : 1개 금일 49번은 total correctness가 80%로 criterion을 넘긴 결과를 보여줬다. 하지만 zebra scene의 correctness가 65%로 criterion에 넘기지 못하여 실험을 더 진행해야 된다고 판단했다. 하지만 어제보다 zebra scene correctness와 total correctness가 증가했기 때문에 실험을 계속 진행하게 된다면 criterion을 충족할 것이라고 판단된다. 또한 알파 구간의 latency가 어제와 비교했을 때 많…

🔬
2025/8/9(토)

1.Rat Training 데일리 퍼포먼스 figure의 재구성 및 업그레이드를 진행했다. 사용자가 원하는 폴더를 지정하면 폴더 안에 존재하는 csv 파일을 자동으로 인식하여 figure를 그리도록 만들었다. 추가로 figure 구성을 삭제 및 추가를 하였다. 사용자가 원하는 폴더를 지정하면, 폴더 안에 존재하는 csv 파일을 자동으로 인식한다. 폴더 선택을 완료하게 되면 GUI가 출력된다. GUI에는 LE번호, current weight, pellet, day를 사용자가 금일 실험을 진행한 데이터를 입력받는다. GUI에서 입력받은 데이터는 출력물 오른쪽 상단에 금일 진행한 실험에 대한 정보를 알 수 있게 출력된다. 또한 LE 번호에 맞게 총 제목이 수정되어 출력되게 만들었다. 예를들어 LE49는 LE49(reward vs no reward)로 출력되며 LE50은 LE50(reward vs quinine)으로 출력되게 만들었다. 새롭게 데일리 figure를 구성하였고, 최…

🔬
2025/8/10(일)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 436g(-4g) Pellet/Water : 11g time : 10:15 ~ 11:05 stage : main task - DAY12 suger water : 1.9ml fruit ring : 1 금일 49번은 어제와 비교했을 때 bias가 줄어든 결과를 보였다. 금일 repetition을 normal trial 10번을 진행 후 repetition을 10번 진행했다. repetition을 진행 후 왼쪽을 선택하는 비중이 증가했다. 추가로 total correctness가 criterion에 근접한 결과를 보여주었다. 또한 어제와 비교했을 때 T-maze arm 갈림길 부분에서 많은 latency를 사용한 모습을 보였다. (실제로 t-maze arm 갈림길 부분에서 고민하는…

🔬
2025/8/11(월)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 432g(-4g) Pellet/Water : 11~12g time : 09:15 ~ 10:00 stage : main task - DAY 13 suger water : 3.4ml fruit ring : 1개 금일 49번은 criterion인 75% corretness를 넘기는 결과를 보여주었다. 하지만 scene별 correctness는 아직 criterion에 도달하지는 못 했다. 추가로 bias도 많이 감소한 결과를 보여주었다. 초반에는 right bias가 심한 모습을 보였지만, trial을 진행할 수 록 scene에 맞는 방향을 선택하기 시작했다. 추가로 T-maze arm 갈림길 부분에서 잠시 멈추어 고민하는 행동을 많이 보였다. 거의 모든 trial에서 T-maze…

🔬
2025/8/8(금)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 446g(+13g) Pellet/Water : 13g 금일은 실험을 따로 진행하지 않고, 몸무게만 체크해 주었다. 오전 jc 일정과 오후 work shop일정으로 오전에 실험을 진행하기 어렵다고 판단하여 금일 실험은 진행하지 못 했다. 그리하여 어제 pellet을 20g을 부여했다. 원래는 11g을 주면 몸무게가 늘지 않고 유지되는 49번이었지만 확실히 어제 20g을 주어서 인지 13g이 찐 446g이 되었다. 추가로 cage cleaning을 진행 후 pellet을 부여했다. 금일 pellet은 실험을 하지 않아 reward를 먹지 못 한 것을 감안하여 원래 주던 pellet의 양에서 2g 더준 13g을 주었다. #Rat No. 50 Group : comparison stud…

🔬
2025/8/7(목)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 433g(-3g) Pellet/Water : 11g Experiment time : 09:20 ~ 10:05 Stage : Main task DAY 10 금일 49번은 40trial을 완료했다. 추가로 10trial과 25trial 후 repetition을 1번씩 사용하였다. 10trial 정도 같은 방향을 선택하려고 하기 전에 한 번씩은 다른 방향을 선택하는 행동을 보여주었다. repetition을 계속 사용해 보고 싶었으나, gamma 구역에서 계속 고민하는 행동을 보여 실험자가 따로 개입하지는 않았다. 신기하게도 repetition을 사용하게 되면 1trial 만에 다른 방향을 선택하는 행동을 보여주었다. bias가 어제보다 높은 결과를 보여주었지만 t-maze arm…

🔬
2025/8/5(화)

1.Rat Training main task의 프로그램이 업그레이드 되었다. 원래는 총 Latency만 측정되었지만, starbox에 가까운 센서와 다음으로 가까운 센서인 inter부분에서 측정된 latency가 csv 파일에 저장되게 변경되었다. 그리하여 T-maze에서 구간별 세세한 Latency를 비교 분석할 수 있게 되었다. 필자는 먼저 구간을 나눴다 alpha, beta, gamma로 구역을 나눴다. alpha는 csv에서 Latency_stbox의 측정 값으로 지정했다. beta 값은 Latency_inter 에서 Latency_stbox를 뺀 값으로 beta 구역을 지나는데 걸리는 시간으로 정했다. T-maze arm(방향을 선택하기 전 구역)까지 도착하는 시간을 알 수 있다. gamma 구역은은 Latency에서 Latency_inter의 값을 뺀 값으로 지정했다. T-maze arm에서 reward zone까지 선택하는데 걸리는 시간을 알 수 있다. 이렇게 구…

🔬
2025/8/6(수)

1.Rat Training 2마리 모두 심한 bias를 보여 repetition과 corretion의 기준을 다시 잡았다. 원래는 10trial 연속으로 같은 방향을 선택하는 행동을 보이면 repetition을 최대 5번 사용하여 다른 방향을 선택할 때 까지 사용 하였고, 5번 모두 사용했지만 방향이 잡히지 않는다면 corretion을 1번 사용하기로 하였지만, 위 기준으로 실험을 진행하여도 bias가 잡히지 않기 때문에 명일부터 다른 방향을 선택할때까지 repetition을 사용하기로 결정했다. #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 436g(-2g) Pellet/Water : 11g Experiment time : 09:30 ~ 10:15 Stage : Main task DAY 9 금일 49번은 40trial을 완료했다. 추가적으로 11…

🔬
2025/8/4(월)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 440g(-1g) Pellet/Water : 11g Experiment time : 09:20 ~ 10:05 Stage : Main task DAY 7 금일 49번은 총 40trial을 완료했다. 어제와 비교했을 때 bias가 낮아진 결과를 보였다. 4trial 정도 오른쪽을 선택하고 1번정도 왼쪽을 선택하는 비율을 보여주었다. 하지만 어제와 비교했을 때 정답률이 낮아진 결과를 보였다. 이를 해석해 보자면, 어제는 한 방향을 계속 선택하는 행동을 보였기 때문에 정답률이 오늘과 비교했을 때 높았던 것이다. 오늘은 bias가 그래도 낮았기 때문에 여러 방향을 선택하며 시도한 행동을 보였다. 실험자는 bias가 점점 잡히고 있다는 것에 의미를 두고 싶다. 또한 latency도 점점…

🔬
2025/8/3(일)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 441g(-5g) Pellet/Water : 11g Experiment time : 10:10 ~ 10:55 Stage : Main task DAY 6 금일 49번은 총 40trial을 완료했다. 하지만 오늘도 bias가 높은 행동을 보여주었다. 처음 실험을 시작하고 10 trial 모두 오른쪽을 연속으로 선택하여 repetition을 5번 부여했다. 5번째 repetition에서 왼쪽을 선택하여 다시 main trial로 돌아가 진행했지만, 똑같이 연속적으로 오른쪽을 10번 선택하여 4번 repetition을 주었다. 4번째 repetition에서 왼쪽을 선택 후 그 다음 main trial 부터 왼쪽을 선택하는 행동을 보여주었다. trial을 시작하면 reward zone…

🔬
2025/8/2(토)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 446g(-3g) Pellet/Water : 11g Experiment time : 10:20 ~ 11:10 Stage : Main task DAY 5 49번은 금일 bias가 심한 행동을 보여주었다. 초반 10 trial에서 오른쪽으로 방향을 연속적으로 선택하여 repetition을 4번 주었다. 4번째 사용한 repetition에서 왼쪽을 선택하여 다시 main trial로 돌아가 진행했다. 그 후 main trial에서도 bias가 높은 행동을 보여주어 repetition을 3번 사용하여 방향을 교정해 주었다. bias가 심할 뿐이지 trial을 시작하면 바로 start box에서 나와 reward zone까지 달려가기 때문에 motivation에는 이상이 없다. 금…

🔬
2025/8/1(금)

1.Rat Training repetition과 correction의 사용 기준이 정해졌다. repetition을 사용하는 경우는 쥐가 연속으로 10trial bias 보이는 경우 사용하며, repetition 5번을 사용하여도 bias를 맞추지 못 한다면, correction 1번을 주는 것으로 결정되었다. 이 기준으로 금일부터 49번과 50번에 적용하여 실험을 진행했다. #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 449g(+1g) Pellet/Water : 13g Experiment time : 10:50 ~ 11:30 Stage : Main task DAY 4 금일 49번은 40trial을 완료했다. 어제와 비교했을 때, bias가 심해진 모습을 보여주었다. 10trial 연속으로 같은 방향을 선택하여 repetition을 사용했지만 바…

🔬
2025/7/31(목)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 448g(-7g) Pellet/Water : 13g Experiment time : 09:00 ~ 09:50 Stage : Main task DAY 3 금일 49번은 총 repetition을 제외하고 40trial을 진행했다. 추가로 어제와 비교했을 때, bias가 감소한 모습을 보여주었다. 오른쪽 왼쪽을 골고루 선택하여 갔다는 것이다. 그럼에도 불구하고 정답률은 어제와 비교 했을 때 떨어지는 모습을 보여주었다. 추가로 어제 bias를 선택한 뒤 washer를 입에 물고 start box로 돌아가는 모습을 보여주었는데 오늘은 초반 trial에서 washer를 물고 돌아가는 모습을 보여주고 후반 trial에서는 보여주지 않았다. 어제와 비교했을 때 많은 trial을 할 수 있었…

🔬
2025/7/29(화)

1.Rat Training 금일 처음으로 LE49,50 2마리 모두 main task에 들어갔다. 먼저 no reward group과 negative feedback을 주는 group(quinine을 사용하는 group)으로 나눠야 하는데 실험자는 49번을 no reward group 그리고 50번을 negative feedback을 주는 group으로 설정했다. #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 457(-10g) Pellet/Water : 12g Experiment time : 10:20 ~ 10:55 Stage : Main task DAY 1 49번은 약 30분 동안 30trial을 수행했다. 맞은 trial은 16개이며 틀린 trial이 14 trial이다. 보게되면 거의 절반의 정답률을 보여준다고 해석할 수 있지만 49번이 어느…

🔬
2025/7/30(수)

1.Rat Training 어제 50번의 reward가 liqued well 뒤로 빠지는 이슈로 인해 수빈 선배님께서 벽이 있는 liqued well을 만들어 주셨다. 벽이 있기 때문에 reward가 뒤로 빠지지 않고 고여있다. 금일 main task부터 사용했지만, 쥐가 licking하다 계속 빠지는 이슈가 발생하여 글루건으로 빠지지 않게 고정했다. #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 455(-2g) Pellet/Water : 11g Experiment time : 09:50 ~ 10:30 Stage : Main task DAY 2 금일 49번은 총 31 trial을 진행했다. 편향된 방향의 선택 비율은 어제와 비교했을 때 left의 비중이 올라갔다. 정답률을 보았을 때 어제와 별 차이가 없다. right로 선택하는 비중은 줄었지만 …

🔬
2025/7/28(월)

1.Rat Training 금일 Quinine Test를 진행했다. Quinine Test를 진행하는 이유는 각 쥐들이 Quinine을 먹고 어떠한 반응을 보이는지 알기 위해서 진행한다. 추가로 만약 quinine을 먹은 뒤 다음 trial에서 suger water를 잘 먹는지 또는 뜸을 들이면서 먹는 지를 판단하기 위해 진행한다. quinine은 2가지가 존재한다. 0.1mM 과 1mM 농도의 quinine이 존재하는데, suger water를 5 trial 진행 후 각 quinine을 0.1mL씩 reward zone에 둔다. 추가로 스톱워치로 cart 끝에서 reward를 licking하기 전까지 latency를 측정하여 latency 기록지에 기록한다. suger water를 주고 quinine을 줘야하는 trial 사이에는 알코올과 물로 reward zone을 닦아 주어야 한다. #Rat No. 49 Group : comparison study of no reward …

🔬
2025/7/25(금)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 450(+2g) Pellet/Water : 25/20/20 g Experiment time : 10:00 ~ 10:30 Stage : Shaping - DAY 4 금일 49번은 shaping 4일차를 진행했다. 어제 좋은 motivation을 보여 pellet양을 15g을 똑같이 주고 shpaing을 진행했다. towel handling에서 sugere water 0.4mL를 주고 shaping에 들어갔다. 초반 trial에서는 빠른 latency를 보여주었지만, 후반으로 갈 수록 집중하지 못하는 모습을 보여주었다. 금일 shaping은 opened wahser trial을 한 번도 진행하지 않았다. 어제 closed washer trial에 완벽하게 적응한 모습을 보여 주…

🔬
2025/7/24(목)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 448(-3g) Pellet/Water :15 g Experiment time : 09:55 ~ 10:30 Stage : Shaping - DAY 3 금일 49번은 5분 towel handling 이후 약 30분간 shaping을 진행했다. 총 25trial을 수행했으며, opend washer trial은 2번 closed washer trial은 23번을 진행했다. 어제와 달라진 점은 start box에서 나와 reward zone까지 가는 속도가 상당히 빨라졌다. 다른 행동을 하지 않고 문을 열면 곧장 달려나간다. 또한 reward를 먹고나서 start box까지 돌아가는 시간이 상당히 많이 줄었다. 실험자가 억지로 쥐의 고개를 돌려 넣기도 했지만, 어제와 비교했을 때 저…

🔬
2025/7/23(수)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 451(+3g) Pellet/Water :15 g Experiment time : 09:30 ~ 10:15 Stage : Shaping - DAY 2 금일 49번은 shaping 2일차를 진행했다. 49번 shaping을 진행하기 전, 어제 start box에 들여보내는 것에 많은 시간이 소요되었었다. 시간이 많이 소요된 이유는 blocker 아래 부분으로 쥐가 빠져나가기 때문이었다. 그리하여 blocker 2개를 합쳐 쥐가 절대 탈출할 수 없도록 만들었다. 효과는 정말 뛰어났다. reward를 먹은 쥐를 빠른시간에 start box에 들여보낼 수 있었다. 그리하여 금일 49번은 45분동안 30 trial을 해냈다. LE49번의 shaping DAY2의 trial 횟수를 fi…

🔬
2025/7/22(화)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 448g(-5g) Pellet/Water :15 g Experiment time : 11:25 ~ 12:10 Stage : Shaping - DAY 1 금일 49번은 처음으로 shaping에 들어갔다. towel handling 5분 진행 후 T-maze에 올려주었다. towel에서는 suger water을 0.5mL를 먹고 들어갔다. 1번째 trial에서 start box를 열어주니, 당황하는 모습을 많이 보여주었다. 그 후 바로 나오지 않고 경계하다 reward가 있는 곳 까지 걸어갔다. suger water은 잘 먹었지만, start box에 다시 들어가는 것이 큰 문제였다. blocker를 2개를 들고 start box까지 넣으려고 해도 blocker를 뛰어 넘는 모습을…

🔬
2025/7/21(월)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 453g(+7g) Pellet/Water : 8g Experiment time : 10:25 ~ 10:45 Stage : Familiarization - DAY 3 금일 familiarization 3일차를 진행했다. 마찬가지로 10분 towel handling 이후 T-maze에서의 시간을 가지는 것으로 진행했다. 오늘 49번은 저울에서 무게를 측정할 때, 스스로 저울에 들어가는 모습을 보여주었다. 실험자가 가르치지 않은 것도 스스로 학습한 것이 정말 신기한 모습이었다. towel에서 5분에 그루밍 후 suger water를 1mL를 먹고 T-maze에 올라갔다. T-maze에 오른 후 12분에 몸과 얼굴을 그루밍 했다. suger water를 먹는 속도를 실험자가 따라가지 …

🔬
2025/7/18(금)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 446g(+1g) Pellet/Water : 20/15/10g Experiment time : 11:10 ~ 11:40 Stage : Familiarization - DAY 2 금일 familiarization은 T-maze 갈림길에서만 suger water를 흩뿌려 주었다. 실험에 들어갔을 때, reward가 나오는 장소가 T-maze 상단이기 때문에, reward가 나오는 곳을 인식시키기 위한 조치이다. 어제와 마찬가지로 10분 towel handling 진행 후 T-maze에 올려주었다. 먼저 towel에서 실험 시작 3분 50초에 그루밍을 하였고, T-maze에 올라간 14분에 얼굴과 몸을 그루밍 했다. T-maze에서 23분 만에 11mL의 suger water을 먹었…

🔬
2025/7/17(목)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 445g(-6g) Pellet/Water : g Experiment time : 09:30 ~ 10:00 Stage : Familiarization - DAY 1 금일 49번은 T maze에서의 familiarization에 들어갔다. 실험실 방 내에서 white noise를 키고 towel handling을 10분 진행 후 T maze에서 5분동안 적응 시간을 준 뒤 suger water를 T maze 곳곳에 흩뿌려 주었다. 처음 경험하는 T maze라 많이 경계할 줄 알았지만, 크게 경계심을 가지지는 않았다. 5분동안 T maze를 관찰하며 적응을 가졌다. 실험 시작 14분에 얼굴을 처음으로 T maze위에서 그루밍 하였다.(T maze에서는 4분) 그 후 suger wat…

🔬
2025/7/16(수)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 451g(+3g) Pellet/Water : 8g Experiment time : 09:20 ~ 09:50 Stage : Cart Handling - DAY 3 49번은 towel handling을 T maez가 준비되어 있는 환경에서 15분간 진행했다. 낯선 환경이라 경계하지 않을까 생각했지만, 어두운 실험방 환경을 금방 적응하는 모습을 보여주었다. handling 시작한지 6분 30초만에 몸과 얼굴을 그루밍하였다. towel에서 2mL의 suger water를 주었는데, 경계심 없이 모두 먹었다. 그 후 15분 부터 cart handling을 진행했다. 49번은 cart에서 먹는 첫 1mL(cart 바닥에 0.2mL 방울로 뿌려줌)를 계속 찾아다니며 먹었다. 그 후 2mL…

🔬
2025/7/15(화)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 448g(-7g) Pellet/Water : 10g, Experiment time : 13:20 ~ 14:00 Stage : Cart Handling - DAY 2 금일 49번은 10분동안 towel handling을 진행 후 cart handling을 진행했다. towel에서 suger water를 2mL를 먹었다. cart에 들어가자미자 suger water를 바닥에 뿌려주니 49번은 바로 두 방울을 찾아 먹었다. 그 후 계속 바닥에 있는 suger water을 찾아 먹었다. 6분에 처음으로 towel에서 얼굴 쪽 그루밍을 하였고, cart에서 처음으로 12분에 얼굴을 그루밍 하였다.18분에 얼굴을 그루밍 하였고, 28,30분에 얼굴과 몸 전체를 그루밍 하였다. cart에서…

🔬
2025/7/14(월)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 455g(+1g) Pellet/Water : 8g, Experiment time : 09:15 ~ 09:55 Stage : Cart Handling - DAY 1 금일 cart handling 단계를 진행했다. 약 15분동안 towel 위에서 suger water를 5ml 정도 섭취 후 cart에 올라갔다. 추가로 towel에서는 9분에 얼굴쪽을 그루밍했으며, 17분부터 cart에 올라갔다. suger water를 곳곳에 뿌려주었는데 바로 먹지 않았다. 처음 cart에 들어갔을 때는, 털이 서있었고 꼬리가 심하게 서 있었다. 그 후 20분에 처음으로 cart에서 얼굴을 그루밍 하였다. 21분에 처음으로 cart에 있는 suger water를 먹었고, 23분에 얼굴을 그루밍 후 …

🔬
2025/7/11(금)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 454g(-4g) Pellet/Water : 20g, Experiment time : 10:50 ~ 11:25 Stage : Handling(Towel handlin & Grabbing) - DAY 5 49번은 금일 프룻룹 2개와 suger water 10mL를 먹었다. handling 전 7분 정도의 적응 시간을 주었다. 5분 30초에 처음으로 얼굴을 그루밍했다. 10분부터 본격적으로 grabbing을 진행했다. 49번은 grabbing을 한 손으로 해도 저항이 심하지 않았고, 정말 온순하게 있었다. grabbing을 약 7초 정도 진행해도 저항을 하지 않을 정도의 온순한 성격을 가지고 있다. 수빈 선배님 말씀으로는 순한 성격을 가지고 있는 쥐들에게는 한 번 겁을 주면 다시는…

🔬
2025/7/10(목)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 458g(+ 10g) Pellet/Water : 10g, Experiment time : 09:20 ~ 10:00 Stage : Handling(Towel handlin & Grabbing) - DAY 4 10분의 적응 시간을 주고 handling을 진행했다. 10분 적응 시간동안 rat handling training 영상을 통해 배운 handling의 거부감을 없애는 방식을 시도해 보았다. 먼저 왼 손바닥에 푸룻릅을 잘개 잘라 올려주었다. 그리고 쥐에게 주는 대신에 손 위에서 먹을 수 있도록 한다. 적응이 되었다면, 오른손 손바닥에 푸룻릅을 올려준다. 이때 쥐에게 왼 손바닥(아무것도 없는 손바닥)을 가까이 대주고 멀리 오른손 손바닥에 푸릇룹을 올려서 준다. 이렇게 하면 쥐가…

🔬
2025/7/9(수)

1.Rat Training #Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 448g(- 16g) Pellet/Water : 12g, Experiment time : 09:20 ~ 09:50 Stage : Handling(Towel handlin & Grabbing) - DAY 3 실험초반에 실험실에 사람이 많아 경계하는 모습을 많이 보였다. 털도 많이 서 있는 모습을 보여줬다. syringe를 주면 먹다가도 주변을 두리번거리며 경계했다. 어제와 마찬가지로 약 3분정도는 syringe을 많이 피하는 모습을 보여줬다. 그 후에는 1mL를 바로 먹었다. 약 10분이 지난 후 털이 많이 가라앉았고, 12분에 첫 그루밍을 시작했다.(얼굴만 진행) 3mL 부터는 grabbing을 하기 위해서 손을 올려놓았다. 계속 손을 올려놓으면 뒤로 빼려는 모습을 보였다. 5…

🔬
2025/7/8(화)

Rat Training Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 464g, Pellet/Water : 8g, Experiment time : 09:25 ~ 09:55 Stage : Handling(Towel handling) - DAY 2 towel handling 초반에는 어제와 다르게 털이 서 있지 않았다. suger water가 담긴 syringe를 입 주변에 가져다 주어도 계속 피하는 모습을 보여주었다. 초반 1mL는 바닥에 거의 흘렸다. 그 후 2mL부터 구석에서 suger water을 잘 먹는 모습을 보여주었다. 49번은 syringe에 대한 반발감이 너무 심해 suger water을 한번 먹을 때마다 half peace를 주었다. 추가로 중앙을 잘 벗어나지 않으려고 하며, 실험자의 손 주변에만 계속 붙어있는 모습을 보여주었다. 추가…

🔬
2025/7/7(월)

1. Rat Training # Rat No. 49 Group : comparison study of no reward vs negative feedback on learning Current weight : 467g, Pellet/Water : 8g, Experiment time : 09:30 ~ 10:00 Stage: Handling(Towel handling) - DAY 1 Handling을 하기 위해 towel로 옮기는 과정에서는 큰 저항이 없었다. 그 후 towel을 깔고 handling을 시작 후 초반에는 털이 곤두 서있었고, 똥을 towel에 3개를 쌌다. 초반에는 굉장히 활발하게 탐색했고, 처음에는 손을 많이 피했으나 half peace을 주며 handling을 진행하니 점차 적응하는 모습을 보여주었다. handling 시작한지 3분일때 처음 머리부분 그루밍을 했다. 그 후 5분일때 몸 부분 그루밍을 진행했다. 49번은 프룻룹을 더 좋아하는 거 같다. suger w…

🔬
2025/7/4(금)

Medical Check 금일 몸무게를 측정하면서 수빈선님께서 핸들링 및 쥐들과 친해지는 방법에 대해 알려주셨다. 먼저 핸들링 시간은 길수록 좋다고 하셨다. 몸무게를 측정할 때도 쥐들에게 적응하는 시간을 주어 이 공간이 안전한 공간이라고 인지시켜주는 것이다. 금일 몸무게를 측정할 때는 쥐들에게 적응 시간을 주면서 측정했다. 추가로 쥐를 저울에 올리기 위해 핸들링을 진행할때는, 쥐 앞에서 시작하는 것 보다는 쥐 뒤에서 핸들링을 시작하는 것이 좋다고 하셨다. 핸들링을 시작하기 전에는 쥐를 여러번 만져주면서 해치지 않겠다는 신호를 주는 것도 좋다고 하셨다. 추가로 쥐들이 reward 즉 후르츠 링 같은 보상을 먹고 있을때의 핸들링은 아직 실험자가 익숙해져 있지 않은 단계이기 때문에 먹고 있을 동안은 계속 쓰다듬는 것 보다는 손을 가져다 대고있는 것이 좋다고 하셨다. 추가적으로 어제 정한 루틴대로 행동하기 위해 금일은 행동 하나하나 신경써서 medical check를 진행했다. LE 49…

🔬
2025/7/3(목)

RA meeting 금일 은호선배님과 수빈선배님께서 행동실험의 process를 설명해 주셨다. 실험의 목적을 한 줄로 설명하자면, reward를 아에 주지 않았을 때와 negative한 outcome을 주었을 때 무엇이 학습이 더 빠르게 될까? 가 실험의 목적이다. 즉 원하는 행동을 하지 않았을 때에 보상을 아에 주지 않는 것 vs 벌을 주는 것 2경우 중 학습이 빠르게 되는 부류는 어디일까 이다. 벌을 주는 경우는 퀴닌이라는 엄청 쓴 약물을 사용하며, 쥐들에게는 퀴닌을 먹는 것이 벌을 받는 것이다. T자 형식의 미로에 쥐들을 두고 스크린에 A 와 B 영상을 틀어놓고 갈림길에서 갈라지게끔 실험 환경을 세팅한다. 미로를 풀게되는 공간에는 suger water가 나오게 설정하고 반대 부분에는 퀴닌이 나오게 설정한다. 위 그림은 24년도 인턴 과정을 진행한 분의 보고서에서 가져온 그래프이다. 주황색이 no reward를 나타내며 파란색이 quinine을 나타낸다. 그래프를 보면 qu…

🔬
2025/7/2(수)

mouse medical check 금일 필자의 쥐인 LE49,LE50번의 몸무게 측정 및 103B 이사를 완료했다. 이사를 할 때는 카트를 이용하여 이사를 하는데, 카트에 존재하는 가림막을 꼭 쳐줘야한다.(동물을 이동할 때는 꼭 가려서 이동해야 된다고 말씀하셨다.) 103B를 도착하고 쥐들을 약 30분 동안 방치했다. 새로운 환경에 적응하는 시간을 주기 위해 30분동안 적응 시간을 준 것이다. 30분의 시간동안 필자의 연구복을 세탁했다. 이제부터 본격적으로 동물실험에 들어가기 때문에 연구복을 먼저 세탁시켜주는 시간을 가졌다. 추가적으로 핸들링 타월 또한 새로 받고 세탁을 진행했다. 세탁은 지하 B104호에 있는 세탁기를 사용하여 세탁을 진행했다. 핸들링타월 보관 공간도 지정받았다. 103B에 있는 서랍 2번째 칸에 배정받았으며, 세탁이 완료된 핸들링타월을 넣어 놓았다. 그 후 LE49, LE50의 medical check를 진행했다.(몸무게 및 상태 체크) LE49 LE49의…

🔬
2025/7/1(화)

vr simulation set up 금일 오전은 어제와 마찬가지로 예빈선배님의 vr simulation set up을 도와줬다. 어제 프로파일의 뼈대를 어느정도 맞춰 놓아서 금일 많은 시간이 걸리지 않을 것으로 예상했지만, 많은 시간이 소요되었다. 뼈대를 세우면서 구리판을 뒤에 넣어 테이프로 고정시켜 놓았지만 뼈대를 세우면서 테이프가 다 떨어져 구리판이 떨어져 버렸다. 그리하여 프로파일 뼈대를 다시 들어 구리판을 넣는 과정을 진행했다. 이 과정에서 프로파일이 방음부스와 크기가 완벽하게 맞아 구리판이 쉽사리 들어가지 않았다. 앏은 렌치를 이용하여 구리판에 연결 후 프로파일 아래로 넣어 주었고, 구리판을 프로파일 뒤에 넣을 수 있었다.(구리판은 실험에서 노이즈를 최대한 줄이기 위해 깔아준다.) 추가적으로 방음부스에 1,2,3층으로 프로파일을 만들어 주었다. 아마도 명일 방음부수 안 프로파일 set up이 마무리 될 것 같다. histology - imaging LE32의 DAPI와 …

🔬
2025/6/30(월)

VR simulation set up 금일 예빈 선배님이 사용하실 VR simoluation set up을 진행했다. 프로파일이 방음 부스 안에 프로파일을 설치하여 vr simoulation에 사용될 도구가 설치될 수 있게 만들었다. 방음부스 실내의 크기와 프로파일의 크기가 동일하여 초기 뼈대를 만드는데 많은 시간이 들었다. 185cm 프로파일을 세로로 길게 세워 놓고 나머지 프로파일들을 추가로 장착시켜 단단하게 만들었다. 추가적으로 구리판을 먼저 테이프로 붙여 프로파일 뒤에 오게 만들었다. 구리판의 용도를 여쭤보니 실험단계에서 노이즈를 최대한 줄이기 위해 붙인다고 말씀해 주셨다. 필자는 학부 학교에서 공구를 사용해 본 경험이 많다. 학교 메이커스페이스에서 필자가 원하는 용도로 재료들을 많이 만들어 보았고, 도구 및 공구를 사용한 경험이 많아 VR simulation set up하는데 많은 도움이 된 것 같다. 명일은 틀을 잡아놓은 프로파일에 나머지 프로파일들을 추가하여 simul…

🔬
2025/6/27(금)

install deeplabcut(window os) 금일 104호에 있는 window os 기반 computer에 deeplabcut install을 진행하였다. 어제 lab note에 작성한 방법을 참고하여 deeplabcut install을 진행하였다. 먼저 computer에는 anaconda prompt가 깔려있어 conda install은 건너 뛰어 설치를 진행하였다. (104호에는 선배님들이 연구를 진행중이라 사진을 많이 찍지 못하였다. 금일 lab note에 사진이 많이 없어도 이해해 주길 바란다.) 먼저 dxdiag를 실행하여 computer사향을 체크해 주었다. computer의 사향은 nvidia gtx 3090이었다. pytorch 연동에 알맞은 그래픽 드라이버를 설치하기 위해 사향 체크는 필수다. 추가적으로 computer에 이미 그래픽 드라이버가 설치되어 있어, update만 진행해주었다. 그 후 anaconda prompt를 관리자 권한으로 실행시켜준다. …

🔬
2025/6/26(목)

Fluorescence imaging 금일은 필자가 어제 진행한 staining한 histology샘플들을 가지고 Imaging을 진행했다. 지하 1층에 존재하는 현미경을 가지고 촬영을 진행했다. imaging을 설명하기 전 준비하는 단계를 설명하겠대. 시작 전 현미경 전체샷, 플레이트샷 총 2장을 촬영한다. - 보고서 제출용 컴퓨터 본체를 킨다. 현미경을 킨다. 이때 렌즈가 4x(빨간줄)로 맞추어져 있는지 확인한다. 수은램프를 킨다. ignition도 켜준다. 카메를 킨다. 컴퓨터에서 NIS를 실행한다. *카메라를 먼저 킬 것 위 단계를 마무리하면 imaging할 준비가 되었다. (금일 필자가 사용한 현미경) 현미경을 가지고 촬영하는 방법을 설명해보자면, NIS에서 Edit -> option -> save next에 들어가 자동저장을 설정해 준다. 위 내용을 해야 사진의 이름이 원하는 이름으로 자동저장되어 찾기 편하다. ex) LE 30 -1-1 glass를 위 아래로 한번 뒤…

🔬
2025/6/24(화)

sectioning 금일 historogy 과정 중 하나인 sectioning 과정을 참관하였다. gel embedding 과정을 거친 후 굳어 진 쥐의 뇌를 blade를 통해 더 정밀하게 자른다. 추가적으로 뇌를 훼손시키지 않게 조심한다. sectioning 단계를 설명하자면, 계수대에 위치한 냉각수를 벨브를 열어준다. rotating microtome의 전원을 킨디. start를 눌러주고 온도를 settingg한다. 쥐의 뇌를 냉각판에 고정시킨다. (이때 뇌가 필자가 바라봤을 때 정면을 보게 위치시킨다.) blade를 꽂고 시계 방향으로 돌려 sectiong을 진행한다. rotating microtome의 실제 모습이다. 화면 조작을 통해 온도 조작이 가능하며, 필자가 참관했을 때 온도는 -55였다. 위 사진처럼 어는점이 높은 oct compound를 냉각판에 올려 쥐의 뇌를 고정 시킬 수 있게 만들어 준다. 좁은 구멍과 넓은 구멍의 용액 통이 존재하는데, 먼저 넒은 구멍…

🔬
2025/6/25(수)

JC discussion The Theory behind the study 해마의 place cell의 기록이 수용 영역이 dHP와 vHP로 이동하여 place field의 크기가 더 커진다. Key papers related to the study Comparison of Spatial Firing Characteristics of Units in Dorsal and Ventral Hippocampus of the Rat , 1994 What is the major (hypothesis) of the study? dHP는 iHP와 vHP보다 세분화된 공간표현에 더 특화되어 있다고 생각되었다. 그리하여 저자는 dHP와 iHP를 MUS와 GABA-A receptor agonist를 사용하여 각각 비활성화시킨 후 VR simulation을 통해 dHP와 iHP가 장소 탐색에 미치는 영향을 파악하려고 했다. How is the study experimentally designed to…

🔬
2025/6/23(월)

How can i get a good result? 쥐 tail을 deeplabcut을 활용하여 labeiling 후 data를 얻고, 그 후 labeling된 mp4 file까지 출력해 보았다. 20일(금)에 test한 데이터를 토대로 labeling 된 mp4 file을 출력해보았다. 출력된 mp4 file은 초반 labeling은 제대로 되었지만, 쥐가 움직이기 시작하자 tail2,3의 label은 소실되어 제대로된 data를 얻을 수 없었다. (mp4 file 초반… tail1,2,3,4의 labeling이 잘 된 모습을 볼 수 있다.) (mp4 file 후반… tail2,3의 labeling이 소실되어 쥐 tail의 data를 알 수 없다.) 필자는 위 project를 진행 할 때 numframe 2 pick : 20 (frame 학습 갯수) maximumepochs : 20 (에포크 : data 반복 학습 횟수) dotsize : 8 (labeling 크기) bo…

🔬
2025/6/20(금)

JC discussion 정리 cluster의 설계 미스 -> 위 논문의 Figure 3의 C를 보면 cluster template(유사한 신경 시퀀스들의 패턴들의 모음)가 burst event안에서 뉴런들이 활성화 되는 시간을 의미한다. 그러나 오늘 JC에서 이 Figure에 대해 논쟁이 있었다. 필자가 이해한 바로는 learning과 learned condition간의 시컨스 클러스터 변화를 분석하는 부분이 설계가 잘 못 되었다고 이해했다. 설명하자면, 학습 단계가 다름에도 모든 sequence data를 함께 clustering하여 하나의 고정된 cluster set를 만들고 그 세트에 sequence의 빈도를 비교하는 방식이 잘 못 되었다는 것이다. 아마도 이러한 cluster 비교방식은 학계에서 많이 사용하지 않는 방식 인 것 같다. correct Trial rate의 불확실성 ->Supplementary Figure 1을 보면 correct trial rate의 데이터…

🔬
2025/6/18(수)

paper Shabani, H., Muysers, H., Yiu, Y.-H., Sauer, J.-F., Bartos, M., & Leibold, C. (2025). Formation of Task Representations and Replay in Mouse Medial Prefrontal Cortex. Question Q1. mPFC에서 task representation은 spatial schema에 기반하는가? 아니면 de novo되는가? Q2. goal arm에 대한 neuron 반응과 task phase 반응은 어떠허게 다르게 나타나는가? Q3. neural sequence는 planning하는가 아니면 evaluation 하는가? method GCaMP6f 발현 쥐를 1-photon calcium image를 통해 mPFC의 neuron활동을 8주동안 관찰했다. 쥐의 행동을 sampling, outward,reward로 구분하고 분석했다. result 처음에는 소수의…

🔬
2025/6/19(목)

Install Deeplabcut GUI 1.summery deeplabcut은 동물이나 곤충의 자세를 추정할 수 있는 딥러닝 python tool이다.오늘은 deeplabcut을 필자의 Mac OS체제의 apple silicone(M1) macbook에 install 후 deeplabcut testing을 진행하였다. deeplabcut github : https://deeplabcut.github.io/DeepLabCut/docs/installation.html1(http://localhost:8888/wordpress/?p=19#b292a786-45f8-4095-85e6-9e9eab58a2f0)^ github에 존재하는 deeplabcut 정보를 참고 2.Process 2.1 Tool Install deeplabcut을 실행시키기 위해 몇 가지 tool들이 필요하다. python conda PyTorch 2.1.1 Python 필자의 MacBook Pro에는 python이 이…

📝
03:00

겨울잠을 깨고 돌아온 필자이다. ​ ​ 사실 겨울방학이라는 잠에서 깨어 개강이라는 현실을 맞이한 필자이다. ​ ​ 이번 겨울은 유난히도 눈이 많이 내리고 쌓인 것 같다. ​ ​ 군대에 있을 때 보다 눈을 더 많이 보았다. ​ ​ 첫눈이 내렸을 때는 필자의 낭만을 채워주었지만, 세 번째부터 내린 눈은 그다지 필자의 눈에 들어오지 않았다. (길이 다 얼어서 다니기 힘들었다;;) ​ 대중교통을 타기 위해 기다리는 필자 이번 겨울은 유난히도 더 춥게 느껴진 필자였다. ​ 필자의 이번 방학은 기억에 남는 에피소드 없이 지나갔다. ​ ​ 필자의 방학 프리뷰를 빠르게 쓰고 싶었지만, 딱히 기억나는 일과 에피소드가 없어 글을 쓰기까지 오랜 시간이 걸렸던 거 같다. ​ (무슨 글을 쓸지 고민에 빠진 필자) ​ ​ ​ 필자의 이번 방학의 주제는 “그냥 한다”였다. ​ ​ 필자는 생각이 정말 많은 사람이다. 무엇을 하나 하더라도 이렇게 해볼까 저렇게 해볼까라는 생각을 정말 많이 한다. ​ ​ 생…

📝
02:30

2024년 마지막 글로 돌아온 필자이다. 시간이란 참 빠른 것 같다. ​ ​ 벌써 2025년이며 필자의 나이가 24살이다… 2024년 고생 ㅈㄴ많았다. 이글을 읽는 모든이들이 2024년은 행복했던 한해라고 기억했으면 좋겠다. ​ ​ 전역한지 1년이 거의 다가오며, 많은 일들이 2024년에 일어났다. ​ ​ 2학년 2학기를 끝낸 필자는 연말에 많은 일들을 겪었다. ​ ​ 가장 큰 이벤트를 말하자면 일본에 갔다온 것이다. ​ ​ 이때까지는 순조롭게 출발할 줄 알았다. ​ 예상치 못하게 형의 여권에 문제가 생겨 계획대로 아침 비행기를 타고 출발하지 못했지만, ​ ​ 일본여행은 필자에게 많은 새로운 경험을 주었다. ​ ​ 첫 번째로 새로운 경험은 외국인들의 일본에 대한 이미지이다. ​ ​ 필자는 일본에 가기 전에는 한국과 일본의 국제적인 위상은 비슷한 선상에 있다고 생각했다. ​ ​ 그러나 이 생각은 일본의 식당과 편의점을 가고 산산조각났다. ​ ​ 필자가 일본에 있는 5일동안 많은 …

📝
02:00

거의 2달 만에 돌아온 필자의 글이다. ​ ​ 빠른 시일 내에 글을 쓰고 싶었지만, 이놈의 일은 왜 해도 끝이 나질 않는지 모르겠다. ​ 필자의 표정 ​ 글을 안 썼던 필자는 중간고사로 인해 공부에 매진했고, 일에 치여 살았던 것 같다. ​ ​ 빠른 시일 내에 글을 쓰고 싶었던 필자였지만, 1달 반 동안 쓸만한 필자의 스토리가 없었다. ​ ​ 생각해 보면 1달 반 동안 뿌듯했고, 행복했던 일이 없었던 것 같다. ​ ​ 1달 반 동안 집에서 하루 종일 쉬었던 날이 없었다. ​ ​ 그리하여 필자는 오늘 딱히 약속도 없고 일도 없어서 집에서 하루 종일 쉬면서 많은 생각을 가졌다. ​ ​ 역시 사람이란 동물은 쉬는 날이 있어야 건강해지는 것 같다. ​ ​ 그래서 오늘 필자가 말할 주제는 “여유”이다. ​ ​ 주제에 들어가기 앞서서 요즘 필자가 정말 재미있게 보는 인스타 만화가 있다. ​ ​ https://www.instagram.com/rmqdid/ [급양만와(@rmqdid) • In…

📝
01:25

​ 2024년 3분기의 마지막 글이다. ​ ​ 입추를 지나 9월이 다가왔고, 벌써 24년 2학기가 개강했다. ​ (방학 돌려주세요,,,,) ​ 전역하고 서울에 자취를 시작한 게 엊그제 같은데 벌써 1학기를 지나 여름방학을 건너 2학기가 다가왔다. ​ ​ 방학이 지났기 때문에 필자의 방학에 대한 피드백을 해보자면 필자는 방학 때 귀찮더라도 꼭 해야 하는 것을 3가지를 정했었다. ​ 첫 번째는 헬스 두 번째는 토익 공부 세 번째는 제3외국어 공부였다. ​ ​ 첫 번째 헬스는 거의 매일 헬스장에 가서 운동을 했다. 매일 1시간 반에서 2시간을 투자했는데, 헬스는 방학 동안 정말 즐겁게 했다. ​ 최근 헬스만으로 근성장의 한계를 느껴 식단까지 해보려고 노력 중이다. (매일 4~5끼 먹기) ​ ​ 두 번째는 토익 공부이다. 한 마디로 말해보겠다. ​ ​ 망. 했. 다 ​ ​ 공부 한 거라고는 토익 영단어 외우는 것 밖에 없었다. 토익은 아마도 계획을 다시 세워 진행해야 될 것 같다. ​ …

📝
01:00

잊을만하면 돌아오는 필자의 글이다. ​ 벌써 2024년의 절반이 지난 7월이 다가왔다. 2024년은 다른 해와는 다르게 정말 빨리 지나가는 느낌이 든다. ​ ​ 현재 필자는 학교를 종강하고 백수의 삶을 살고 있다. (현재는 일을 구함) ​ ​ 방학이 된 기념으로 오랜만에 고향 친구들과 강진으로 여행을 갔다. ​ ​ ​ 원래도 모이면 재미있게 놀지만 필자는 이번 여행을 조금 더 재미있게 보내고 싶었다. ​ ​ 그리하여 준비한 것 ​ ​ ​ 바로 하모니카 좀비 놀이이다. ​ ​ ​ ​ (ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ) ​ 이것이 나이 23 대한민국 군필 남자들이 여행 가면 하는 행동이다. ​ ​ ​ 그 후 여행에 다녀온 뒤 ​ 오랜만에 광주에서 야구를 직관했다. ​ ​ 종강 후 오랜만에 가본 내 고향 광주였다. 항상 느끼지만 광주송정역에 도착하여 내리면 정겨운 무엇인가가 나를 감싸주는 것 같다. ​ ​ 그리하여 오늘 이야기할 주제는 나의 고향 광주와 현재 살고 있는…

📝
00:30

한 달 만에 돌아온 필자의 글이다. 오랜만에 돌아온 것에 미안함을 느낀 필자 ​ 시간이 정말 빠르게 지나는 것 같다. 벌써 1년의 절반인 6월이 다가온 것은 정말 놀랍다,,,,, ​ ​ 3월부터 5월까지 정신없이 학교 수업과 과제만 하다 보니 시간이 정말 빠르게 지나는 것 같다. 필자의 학교 실습실 컴퓨터에 있던 짤 학교에만 있으면 극 E인 필자도 I가 되어 집에 가고 싶다고 생각을 수십 번 하는 것 같다. ​ 이 생각은 필자만 하는 것이 아닌 사회생활하는 모든 분들이 하는 생각이지 않나 싶다. (모두 다 힘을 내시길,,,,) 오늘 말하고 싶은 주제는 인생의 “목표”이다. ​ ​ 전역을 하고 필자는 사회에 나오면 하고 싶은 것, 그리고 이루고 싶은 것들이 정말 많았다. ​ 미필일 때는 항상 먼 미래의 목표보다는 가까운 현재의 목표가 먼 미래의 목표를 만든다고 생각했다. ​ 그러나 지나고 보니 막상 바로 앞의 목표보다 미래의 목표가 더 중요하다는 걸 깨달았다. ​ 오늘은 그 깨달…

📝
00:00

반갑습니다! 블로그를 쓰며 첫인사 한번 올려봅니다. ​ 글을 시작하기 전 필자는 글쓰기에 대해 전문적으로 배워본 적도 없으며, 글을 잘 쓴다고 생각하지 않는다. 이 점 참고하여 글을 읽어주길 바란다. 사실 필자는 블로그를 시작하기 전 군대에서부터 글을 쓰기 시작했다. 글을 썼던 이유는 내 생각을 정리하는 시간이 필요하다고 느꼈기 때문이다. ​ 필자는 MBTI 극 N으로 상상과 생각을 정말 많이 한다. ​ 쓸데없는 생각부터 인생에 살면서 필요한 생각까지 한다. 이러한 생각을 정리하는 시간이 없다면 망상만 하는 미친놈이 되기 때문에, 필자는 필자의 생각을 정리하고 다시 한번 생각해 보는 시간을 가진다. ​ ​ 필자의 생각을 처음으로 정리한 시기는 군대였다. 필자가 군 생활을 하며 직접 썼던 글 ​ 군대에서 썼던 글도 기회가 된다면 블로그에 정리해 보겠다. ​ ​ 그리하여 오늘은 필자가 처음으로 글을 쓴 이유가 있었던 공간, 필자가 많이 변화할 수 있었던 시간을 제공한 필자의 군대…