userid stringclasses 377
values | course_number int64 1 15 | question_number int64 1 5 | question_content stringclasses 5
values | answer_content stringlengths 1 4.12k ⌀ | grade stringclasses 5
values |
|---|---|---|---|---|---|
C-2021-2_U93 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 様々な確率的事象に関して、試行の結果を知ることにより生じる曖昧さの減少を数式を使って表す方法を学んだ。 | B |
C-2021-2_U93 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 曖昧さの減少を式で表す方法が分かった。 | B |
C-2021-2_U93 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 実際に手を動かして自分で式を作るところまで授業中にはできなかったので、復習してできるようになりたいと思った。 | B |
C-2021-2_U93 | 3 | 4 | 質問があれば書いてください | null | B |
C-2021-2_U93 | 3 | 5 | 今日の授業の感想や反省を書いてください | 授業を聞いて理解できるのと、自分の力で手を動かして導出できるのとでは天と地ほどの差があると思うので実際に演習を頑張って行きたい。 | B |
C-2021-2_U58 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 曖昧さとエントロピーは等しい。
起こりにくい事象ほど起こった時に得られる情報量は大きくなる。
| C |
C-2021-2_U58 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | エントロピーの使い方が分かった。
| C |
C-2021-2_U58 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 証明は文系なのでまったくわからなかった。 | C |
C-2021-2_U58 | 3 | 4 | 質問があれば書いてください | 提出場所がいまだにわからない。
| C |
C-2021-2_U58 | 3 | 5 | 今日の授業の感想や反省を書いてください | 難しい。
ついていけるか不安。 | C |
C-2021-2_U77 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | null | F |
C-2021-2_U77 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | null | F |
C-2021-2_U77 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | null | F |
C-2021-2_U77 | 3 | 4 | 質問があれば書いてください | null | F |
C-2021-2_U77 | 3 | 5 | 今日の授業の感想や反省を書いてください | null | F |
C-2021-2_U103 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 情報源のあいまいさの減少量を得られる情報量と定義し、得られる情報量の期待値はエントロピーと一致する。また、情報量に関する考え方を複数の事柄にも適用し、それらの事柄の関係性の強さを表す指標が相互情報量である。 | B |
C-2021-2_U103 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 情報を、その曖昧さや複数の情報同士の関係性の強さの指標を数学的な考え方をもとに導入し、具体的に数値化していることが分かった。 | B |
C-2021-2_U103 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 特にない。 | B |
C-2021-2_U103 | 3 | 4 | 質問があれば書いてください | 情報量を数値化することで具体的にどんなメリットがあるのでしょうか。 | B |
C-2021-2_U103 | 3 | 5 | 今日の授業の感想や反省を書いてください | 今日の講義を聞いて、情報の世界では、当然と言えばそうだが、期待値や条件付き確率など数学の考え方がその基盤であるということがはっきりとわかって面白かった。具体例が豊富でとても分かりやすかった。 | B |
C-2021-2_U124 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 曖昧さの減少は得られた情報の量と同じである。
確率pの事象の生起を知ったことによる曖昧さの減少は-log₂pと表すことができる。
情報量の期待値はエントロピーに一致する。 | B |
C-2021-2_U124 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 曖昧さの減少についての考え方を理解し、求めるための計算ができるようになった。また、情報の期待値を求められる世になった。 | B |
C-2021-2_U124 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | U(M)=log₂Mの証明が難しく理解するのに時間がかかった。 | B |
C-2021-2_U124 | 3 | 4 | 質問があれば書いてください | ない | B |
C-2021-2_U124 | 3 | 5 | 今日の授業の感想や反省を書いてください | 今日も知らなかったことを知ることができてよかった。
曖昧さの減少は得られた情報の量と同じという考え方がとても自分の中で腑に落ちて面白かった。 | B |
C-2021-2_U47 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 「曖昧さ」を量で表せるようにしたい。曖昧さが減ることで情報量が増える。情報の期待値はエントロピーと等しい。 | F |
C-2021-2_U47 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 期待値とエントロピー関数の関係を理解しました。演習問題2のような問題であれば、生起確率が分かった時点で回答可能であることが分かりました。 | F |
C-2021-2_U47 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 情報量と曖昧さの関係が感覚的にはなんとなくわかるのですが、しっかり理解できているのか不安です。 | F |
C-2021-2_U47 | 3 | 4 | 質問があれば書いてください | (3)の内容がいまいち理解しきれてない感じがします。 | F |
C-2021-2_U47 | 3 | 5 | 今日の授業の感想や反省を書いてください | logの計算が出てきて少々身構えましたが、説明を聞き、丁寧に拾っていくと理解することが出来ました。期待値の役割についてもう少し学習を進めたいです。 | F |
C-2021-2_U134 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | エントロピーの算出の仕方や確率の概念の元々に戻って理解することができた。 | F |
C-2021-2_U134 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | エントロピーと曖昧さ、情報量という概念について知り、計算することができるようになった。 | F |
C-2021-2_U134 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | null | F |
C-2021-2_U134 | 3 | 4 | 質問があれば書いてください | null | F |
C-2021-2_U134 | 3 | 5 | 今日の授業の感想や反省を書いてください | 集中して活動することができた。エントロピーを知ることによって、確率と期待値は高校ではやったものの、機械的に理解していることがあったのでわかってとても良かったと思う。 | F |
C-2021-2_U172 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | null | F |
C-2021-2_U172 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | null | F |
C-2021-2_U172 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | null | F |
C-2021-2_U172 | 3 | 4 | 質問があれば書いてください | null | F |
C-2021-2_U172 | 3 | 5 | 今日の授業の感想や反省を書いてください | null | F |
C-2021-2_U72 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 「曖昧さ」という概念が追加された。これは例えば1からM(Mは2以上の自然数)までのN個の数字の中から1つ選んだ時、それが何であるかを知るための情報が欠落する、つまり選択肢が多くなるほど値が大きくなると定義されるものである。曖昧さをMについての関数とみなすと、この関数は単調増加であり、U(MN)=U(M)+U(N)を満たす関数である。このことから、U(M)=log2(M)が導かれる。任意の無記憶定常情報源Sの曖昧さS(M)はSのエントロピーと一致する。1からMまであった選択肢が1からM’まで減る、つまり確率M'/Mの事象が生起すると、M'/M=pとして曖昧さの減少は-log2(p)と表される。とすると確率pの事象が生起した時に得られる情報の期待値もまたSのエントロピーと一致する。これすなわちエントロピーの正体は、ある情報を得た際の期待値であるとも表せることが示された。相互情報量という概念も用意した。これは条件付き確率を利用したもので、ある事象の正体を掴んだ時のもう1方の事象の曖昧さがどれだけ減少するかを数値化したものである。 | F |
C-2021-2_U72 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | エントロピーの実態が掴めたことがスッキリした。 | F |
C-2021-2_U72 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 特にありません | F |
C-2021-2_U72 | 3 | 4 | 質問があれば書いてください | 特にありません | F |
C-2021-2_U72 | 3 | 5 | 今日の授業の感想や反省を書いてください | 今回の内容はかなり頭に入りやすいものであった。 | F |
C-2021-2_U56 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 曖昧さの減少は得られた情報の量と同値である。曖昧さU(M)の性質としてはMに関して単調増加し、加法性を持つことが挙げられる。情報源Sの曖昧さU(S)はU(S)が確率p1,p2‥の連続関数であるという仮定の下でSのエントロピーH(S)に一致する。めったに起きない事象の生起を知ることで得られる情報量は大きい。情報量の期待値はエントロピーに一致する。相互情報量をI(X,Y)=H(X)-H(X | Y)で定めると、I(X,Y)=0のときXとYは無関係である。 | B |
C-2021-2_U56 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 情報量の期待値を求める方法を理解することができた。またU(M)=log_2(M)の証明方法も分かった。 | B |
C-2021-2_U56 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 相互情報量のところが条件付き確率も絡んできているので理解しづらかった。自力でとくのは難しいと感じた。 | B |
C-2021-2_U56 | 3 | 4 | 質問があれば書いてください | 情報量の期待値などを求める場面は実生活において何が挙げられるのかが分からなかったです。後、課題提出ファイルの種類は何でも良いですか。 | B |
C-2021-2_U56 | 3 | 5 | 今日の授業の感想や反省を書いてください | 表やイラストでイメージしやすく、わかりにくいところもなんとか理解できたのでとても勉強になった授業でした。 | B |
C-2021-2_U46 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 与えられた情報の質によって減少する曖昧さが異なる。 | D |
C-2021-2_U46 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 与えられた情報によってどれだけ曖昧さが減少するかがわかる。2種類の情報源があるとき、どちらの方がより質が高い(曖昧さが減少するか)がわかる。 | D |
C-2021-2_U46 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | とくになし | D |
C-2021-2_U46 | 3 | 4 | 質問があれば書いてください | とくになし | D |
C-2021-2_U46 | 3 | 5 | 今日の授業の感想や反省を書いてください | 情報の曖昧さを数値化することで、客観的に判断できるようにしていることがすごいと思った。 | D |
C-2021-2_U118 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 情報には曖昧さがあるが、曖昧さの現象は得られた情報の量と一致する。曖昧さは単調増加、加法性という性質を持ち、情報源のエントロピーに一致する場合がある。また、得られる情報量の期待値はエントロピーに一致する。 | B |
C-2021-2_U118 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 曖昧さの定義と曖昧さの減少の測り方についてわかった。また、それによって自動的に情報量についてもわかる事が理解できた。 | B |
C-2021-2_U118 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 資料10ページの証明が途中でわからなくなってしまったので、自分でもやってみてしっかり理解できるようにしたい。 | B |
C-2021-2_U118 | 3 | 4 | 質問があれば書いてください | 特にありません。 | B |
C-2021-2_U118 | 3 | 5 | 今日の授業の感想や反省を書いてください | 少し難しい証明なども入ってきてよくわからなくなってしまった部分もあったので、しっかり復習して理解できるようにしたい。 | B |
C-2021-2_U109 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 情報量の定義、曖昧さとエントロピーの関係、相互情報量の定義 | B |
C-2021-2_U109 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 情報量(曖昧さ)とエントロピーが深くつながっていることを式を通して理解することができた。概念としてのエントロピー、相互情報量をつかむことができた。 | B |
C-2021-2_U109 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 相互情報量のI(X,Y)=I(Y,X)という関係が式を見れば納得できるものの、直感的に理解できなかった。 | B |
C-2021-2_U109 | 3 | 4 | 質問があれば書いてください | null | B |
C-2021-2_U109 | 3 | 5 | 今日の授業の感想や反省を書いてください | 数学的な内容がかなり大きくなってきて、概念も難しくなってきたと感じた。 | B |
C-2021-2_U95 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | null | D |
C-2021-2_U95 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | null | D |
C-2021-2_U95 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | null | D |
C-2021-2_U95 | 3 | 4 | 質問があれば書いてください | null | D |
C-2021-2_U95 | 3 | 5 | 今日の授業の感想や反省を書いてください | null | D |
C-2021-2_U120 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | エントロピーには情報量の期待値という側面がある。また、曖昧さの減少は与えられた情報量と等しい。
| A |
C-2021-2_U120 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 情報量の期待値の計算。条件付きエントロピーの計算方法。 | A |
C-2021-2_U120 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 条件付きエントロピーの計算方法は分かったが、なぜ計算過程で新たな確率をかけたのか分からなくなってしまった。 | A |
C-2021-2_U120 | 3 | 4 | 質問があれば書いてください | null | A |
C-2021-2_U120 | 3 | 5 | 今日の授業の感想や反省を書いてください | エントロピーについて違う視点から知ることができた。期待値の計算には初めて触れたが難しいこともなくてよかった。 | A |
C-2021-2_U141 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 情報と情報量の意味、情報量および期待値の解説と計算方法、そして条件付きエントロピーを紹介した。 | B |
C-2021-2_U141 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 情報量と期待値の意味を理解し、その計算ができるようになった。 | B |
C-2021-2_U141 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 条件付きエントロピーの計算が少し理解できなかった。 | B |
C-2021-2_U141 | 3 | 4 | 質問があれば書いてください | null | B |
C-2021-2_U141 | 3 | 5 | 今日の授業の感想や反省を書いてください | 期待値の意味と計算方法は分かったが、その数値からわかることに対してぼんやりであった。講義前の予習だけでなく、あとの復習と分からなかった部分の補足も大事だと思った。 | B |
C-2021-2_U112 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 情報量が増えると情報の曖昧さが減少する。また、曖昧さの量をU(M)とすると、これはMに関して単調増加する。曖昧さの減少量は確率で表すことができる。逆に、確率から、得られる情報量も求めることができる。情報量の期待値はエントロピーに一致する。エントロピーは曖昧さに一致する。相互情報量とはX、Yの関係の強さを示す。相互情報量が0のとき、X、Yは無関係である。すなわち、たとえばXの情報を得てもYの曖昧さが変わらない状態を表している。 | B |
C-2021-2_U112 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | エントロピーの考え方や意味が完璧ではないですけど、前の授業よりはよく理解ができるようになったかなと思います。情報量についてもそれが何を表すか、理解することが出来ました。相互情報量についてはXとYの関係を数値で表すことができることを理解できましたし、面白いなと思いました。 | B |
C-2021-2_U112 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 期待値が高校で学習していなかったので詳しくはわかりませんが、何となくイメージはできた気がします。情報量などについては理解はできましたが、問題を解くにはまだまだしっかりと全体を把握して、取り組む必要があるなと思いました。 | B |
C-2021-2_U112 | 3 | 4 | 質問があれば書いてください | 特にありません。 | B |
C-2021-2_U112 | 3 | 5 | 今日の授業の感想や反省を書いてください | エントロピーとは何かについて知ったとき様々な考えや捉え方があって面白いなと思い、興味が湧きました。情報量が増えると情報の曖昧さが減少することは、普段の生活の中でも無意識で認識していることだと思いますが、無意識に理解していることを言葉にして、それを情報科学という分野で利用していくことはすごいなと思いました。また、2つのことの関係の強さを数値であらわしていくことが面白いなと思いました。 | B |
C-2021-2_U41 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 得られた情報の量が多ければ多いほど曖昧さは減少する。ここで、曖昧さをU(M)として表現すると、U(M) は単調増加であり、U(MN)=U(M)+U(N)が成りたつ。ここで確率がxで一様なとき、U(M)はlog2x(ここで2は底である)と等しく、Mのエントロピーと等しい。無記憶定常情報源の場合も情報の曖昧さU(S)はSのエントロピーと等しい。ここで確率pが起こったことを知るときに減少する情報の曖昧さはーlog2pである。また、確率p1,p1,p3...pnである事象があるとき、どの事象が起こったか知ったことにより得られた情報量の期待値はp1(-log2p1)+p2(-log2p2)+・・pn(log2pn)で計算でき、エントロピーと一致する。このとき事象が二つしかないとき、確率が1/2のときにエントロピーは最大の値となる。また、二つの事象の関係の強さを示す指標として相互情報量というものがあり、これは2個の事象のうちの1個の事象(ここでこれをAとするとそして他方の事象をBとすると)のエントロピーから、条件付きエントロピー(H(A/B))を引いたものである。相互情報量が0となるとき、この2個の事象のAとBの関係性は全くないということになる。 | A |
C-2021-2_U41 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | log2p(底は2である)は曖昧さを表現して、ーlog2pは情報の曖昧さの減少を示すということが分かりました。また、曖昧さはエントロピーと一致するということ、すなわちエントロピーは曖昧さを示す1つの指標となることが分かりました。 | A |
C-2021-2_U41 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 曖昧さのU(S)がlog2S(ここで2は底である)となる証明があまり分かりませんでした。log2xの単調増加性よりk<nlog2M<k+1となるのがよくわかりませんでした。 | A |
C-2021-2_U41 | 3 | 4 | 質問があれば書いてください | log2xの単調増加性よりk<nlog2M<k+1となぜなるのですか? | A |
C-2021-2_U41 | 3 | 5 | 今日の授業の感想や反省を書いてください | 曖昧さU(M)=log2M(ここで2は底)となる証明をもう一度紙にちゃんと書いて考えてみようと思いました。
| A |
C-2021-2_U135 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 情報の曖昧さ、という把握しにくいものを定量化して表すことで一般的に理解できるように、客観的に比較できるようにしている。 | B |
C-2021-2_U135 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 数理統計学を学んでおくとかなり見通しが良くなった。エントロピーの理解や期待値の理解がしやすいと感じました。 | B |
C-2021-2_U135 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 特にない | B |
C-2021-2_U135 | 3 | 4 | 質問があれば書いてください | 特にない | B |
C-2021-2_U135 | 3 | 5 | 今日の授業の感想や反省を書いてください | 他の教科との関連性が早くも見えて面白いと思った | B |
C-2021-2_U115 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 曖昧さを定量化して、その減少量で得られる情報量を出すことで異なる事象を比較しやすくなった。またそれに確率をかけることで期待値がだせる。 | A |
C-2021-2_U115 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 情報量の全体像がつかめてきた気がする。 | A |
C-2021-2_U115 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 期待値を高校の時にそこまでやらなかったのでイメージしにくかった。 | A |
C-2021-2_U115 | 3 | 4 | 質問があれば書いてください | null | A |
C-2021-2_U115 | 3 | 5 | 今日の授業の感想や反省を書いてください | 相互情報量のところの理解があまりできていないのでそこに注力したい。 | A |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.