본문 바로가기

분류 전체보기

(51)
[leetcode] 211. Design Add and Search Words Data Structure Design a data structure that supports adding new words and finding if a string matches any previously added string. Implement the WordDictionary class: WordDictionary() Initializes the object. void addWord(word) Adds word to the data structure, it can be matched later. bool search(word) Returns true if there is any string in the data structure that matches word or false otherwise. word may conta..
[leetcode] 573. Squirrel Simulation There's a tree, a squirrel, and several nuts. Positions are represented by the cells in a 2D grid. Your goal is to find the minimal distance for the squirrel to collect all the nuts and put them under the tree one by one. The squirrel can only take at most one nut at one time and can move in four directions - up, down, left and right, to the adjacent cell. The distance is represented by the numb..
신경망-2 (Neural Network) 1. 3층 신경망 구현하기 아래와 같은 2개의 은닉층을 가진 3층 신경망을 구현해보자. 먼저 1층의 첫번째 뉴런으로 가는 신호를 살펴보자. 아래 그림을 보면 편향이 하나 추가되어있는것을 확인 할 수 있다. 그림에서 $a_1^{(1)}$ 를 수식으로 나타내면 $a_1^{(1)} = w_{11}^{(1)}x_1 + w_{12}^{(1)}x_2 + b_1^{(1)}$ 으로 나타낼 수가 있다. 그리고 여기서 행렬의 곱을 이용하면 1층의 "가중치 부분" 을 다음 식처럼 간소화 할 수 있다. $$A^{(1)} = XW^{(1)} + B{(1)}$$ 그리고 활성화 함수를 사용해서 변환된 신호 $z$ 를 출력해 낸다. 여기서는 시그모이드 함수를 활성화 함수로 사용한다. 2층의 구현 또한 1층과 동일하며, 마지막 출력층..
신경망-1 (Neural Network) 퍼셉트론은 AND, OR 게이트의 진리표를 보면서 우리 인간이 적절한 가중치 값을 수동으로 결정했다. 신경망은 가중치 매개변수의 적절한 값을 데이터로부터 자동으로 학습하여 이 문제를 해결해 준다. 1. 퍼셉트론에서 신경망으로 1-1. 신경망의 예 아래 그림에서 가장 왼쪽줄을 입력층, 맨 오른쪽 줄을 출력층, 중간 줄을 은닉층이라고 한다. 은닉층의 뉴런은 (입력층이나 출력층과는 달리) 사람들의 눈에는 보이지 않는다. 아래의 신경망은 모두 3층으로 구성되지만, 가중치를 갖는 층은 2개 뿐이기 때문에. 2층 신경망 이라고 한다. 1-3. 활성화 함수의 등장 입력신호의 총합을 출력 신호로 변환하는 함수를 활성화 함수(activation function) 이라고 한다. "활성화" 라는 이름이 말해주듯이 활성화 함..
134. Gas Station There are n gas stations along a circular route, where the amount of gas at the ith station is gas[i]. You have a car with an unlimited gas tank and it costs cost[i] of gas to travel from the ith station to its next (i + 1)th station. You begin the journey with an empty tank at one of the gas stations. Given two integer arrays gas and cost, return the starting gas station's index if you can trav..
확률변수 (random variable) 확률변수(random variable) : 특정 확률 분포와 연관되어 있는 변수를 의미한다. 확률변수의 기대값(expected value) : 모든 확률변수의 확률을 해당 확률변수의 값으로 가중평균한 값 간단하게 동전의 앞면이 나오면 1 동전의 뒷면이 나오면 0인 확률변수를 예시로 들 수 있다. 값이 0인 확률변수의 확률은 0.5 이며 값이 1인 확률변수의 확률 또한 0.5 이다. 기댓값은 $1/2(= 0 * 1/2 + 1 * 1/2)$ 이다. 또 다른 예로, range(10) 에서 나온 값을 생각해볼 수 있다. 이 경우는, 0부터 9까지 모든 변수의 값에 대한 확률은 0.1 이다. 여기서 확률 변수의 기댓값은 4.5 이다. 확률변수 또한 보통 사건처럼 조건부 확률을 구할 수 있다. 만약 $X$ 라는 확..
Perceptron (퍼셉트론) 1. Perceptron 이란? 퍼셉트론은 신경망의 기원이 되는 알고리즘으로 다수의 신호를 입력받아 하나의 신호를 출력한다. 퍼셉트론의 신호는 흐른다(1)/안흐른다(0) 의 두가지 값을 가질 수 있다. 위의 그림은 입력으로 2개의 신호를 받은 퍼셉트론의 예이다. $x_1$ 과 $x_2$ 는 입력신호, $y$ 는 출력 신호 $w_1$ 과 $w_2$ 는 가중치를 뜻한다. 그림의 원은 뉴런 혹은 노드 를 뜻한다. 입력 신호가 뉴런에 보내질 때는 각각 고유한 가중치 가 곱해진다. ($w_1x_1, w_2,x_2$) 뉴런에서 보내온 신호의 총합이 정해진 한계를 넘어설 때만 1을 출력한다. ( 이를 뉴런이 활성화 한다고 표현하기도 하며 $\theta$ 기호로 나타낸다.) 위의 내용을 수식으로 나타내면 다음과 같다...
3. Longest Substring Without Repeating Characters Given a string s, find the length of the longest substring without repeating characters. Example 1: Input: s = "abcabcbb" Output: 3 Explanation: The answer is "abc", with the length of 3. Example 2: Input: s = "bbbbb" Output: 1 Explanation: The answer is "b", with the length of 1. Example 3: Input: s = "pwwkew" Output: 3 Explanation: The answer is "wke", with the length of 3. Notice that the ans..
[데이터 과학] 베이즈 정리 (Bayes's Theorem) 조건부 확률을 반대로 뒤집는 이론 가령, 사건 F 가 발생했다는 가정하에 사건 E 가 발생할 확률이 필요하다고 해보자. 하지만 사건 E 가 발생했다는 가정하에 사건 F 가 발생할 확률만 주어졌다고 하면 조건부 확률의 정의를 두 번 사용하면 다음과 같이 식을 정리할 수 있다. * 여기서 P(E,F) 는 독립사건을 의미할수도, 종속사건을 의미할 수도 있기 때문에, 사건 E 가 발생했다는 가정하에 사건 F 가 발생할 확률의 표현식으로 풀어써줄 수 있는것이다. 그리고, 사건 F 를 사건 F 와 사건 E 가 모두 발생하는 경우 와 사건 F 는 발생하지만 사건 E 는 발생하지 않는 경우 에는 두 사건을 상호배타적인 사건으로 나눌 수 있다. 이를 이용하면 베이즈 정리는 다시 다음과 같이 정리할 수 있다. 예를 들어,..
[데이터 과학] 종속성과 독립성, 조건부 확률 종속성과 독립성 사건 E 의 발생 여부가 사건 F 의 발생 여부에 대한 정보(혹은 그 반대로) 를 제공한다면 두 사건 E 와 F 는 종속사건(dependent events) 로 볼 수 있다. 그렇지 않다면 두 사건은 독립 사건(independent events) 이다. 예를 들어, 동전을 두 번 던졌을 때, 첫 번째 동전에서 앞면이 나왔더라도 두 번째 동전에서 마찬가지로 앞면이 나올지는 아무도 알 수 없다. 이 두 사건은 독립 사건이다. 하지만 첫 번째 동전에서 앞면이 나왔다면 두 동전에서 모두 뒷면이 나오는 경우의 발생 여부에 대해서는 알 수 있다. ( 첫 번째 동전에서 앞면이 나왔다면 두 동전에서 모두 뒷면이 나올 경우는 사라지기 때문이다.) 그렇다면 두 사건은 종속 사건이다. 수학적으로, 사건 E ..